最新消息:关注人工智能 AI赋能新媒体运营

Meta开源5款小型语言模型MobileLLM

科技智能 admin 浏览 评论
图片来源:

GitHub

在7月发表之后,Meta上周宣布正式开源能在智慧型手机上执行的小语言模型MobileLLM系列。

Meta 4个月前发表这2个参数量小于10亿的语言模型MobileLLM 125M及MobileLLM 350M,现在Meta又开发出更大参数量的模型版本,包括MobileLLM-600M/1B/1.5B。

Meta指出,团队全面考虑了多项设计因素,并整合了SwiGLU激活函式(activation function)、「深而精简」(deep-and-thin)架构、内嵌共享(embedding sharing)、以及群组查询注意力(grouped-query attention)机制来开发出MobileLLM模型。

从成果来看,MobileLLM 125M/350M零样本常识理解任务的準确率,比Cerebras、OPT、BLOOM等State of the Art(SOTA)模型,分别高2.7%和4.3%。根据Meta提供的数据,新增的模型成员如MobileLLM-1.5B,更是打挂GPT-neo-2.7B、OPT-2.7B、BLOOM-3B、Qwen 1.5-1.8B与Pythia-2.8B等较大参数量的其他模型。

Meta也强调MobileLLM训练快速。在32颗Nvidia A100 80G GPU的服务器环境下,以1T字词(token)训练不同参数量的MobileLLM所需天数,1.5B版本只要18天,最小的125M更只需3天。

这些模型都已透过GitHub与Hugging Face开源。

随着智慧型手机效能日渐强大,以及使用者对高速回应、低延迟、安全性的需求,愈来愈多模型开发商提供小模型。Google有Gemma 2、微软有Phi 3、OpenAI则有GPT-4o mini,苹果有DCLM。Hugging Face上周也公布小语言模型SmolLM 2家族。

发表我的评论
取消评论

表情

您的回复是我们的动力!

  • 昵称 (必填)
  • 验证码 点击我更换图片

网友最新评论