ApX 标志ApX 标志

趋近智

MaLLaM-7B

参数

7B

上下文长度

4.096K

模态

Text

架构

Dense

许可证

Apache-2.0

发布日期

15 Jan 2024

训练数据截止日期

-

技术规格

注意力结构

Multi-Head Attention

隐藏维度大小

-

层数

-

注意力头

-

键值头

-

激活函数

-

归一化

-

位置嵌入

Absolute Position Embedding

系统要求

不同量化方法和上下文大小的显存要求

MaLLaM-7B

MaLLaM-7B is a 7 billion parameter language model for Malaysian language tasks including text generation and summarization. Trained on Malaysian government documents, news, and social media, it covers regional variations of Bahasa Malaysia. Released under the Apache 2.0 license.

关于 MaLLaM

Malaysian Large Language Model (MaLLaM) is an open-source language model family developed to support Bahasa Malaysia and English. The model is trained on Malaysian text data including local news, literature, and digital content. It is designed to process Malaysian linguistic nuances and cultural context, available in multiple parameter sizes for different hardware deployments.


其他 MaLLaM 模型

评估基准

没有可用的 MaLLaM-7B 评估基准。

排名

排名

-

编程排名

-

GPU 要求

完整计算器

选择模型权重的量化方法

上下文大小:1024 个令牌

1k
2k
4k

所需显存:

推荐 GPU