最新消息:关注人工智能 AI赋能新媒体运营

京东发布JoyAI-LLM-Flash大模型,加速AI技术落地

科技资讯 admin 浏览

京东开源全新大模型 JoyAI-LLM-Flash:小体积,大能力

2月14日,京东在 Hugging Face 正式开源了自家最新大模型 JoyAI-LLM-Flash。别看它总参数只有48亿,真正参与计算的激活参数仅3亿——这可不是“缩水版”,而是专为高效运行设计的“精炼版”。它在20万亿个中文和英文文本上训练过,对知识的理解、逻辑推理,甚至写代码的能力,都不输一些更大模型。

很多大模型跑起来吃内存、慢得像蜗牛,JoyAI-LLM-Flash 却不一样。它用了一套叫 FiberPO 的新训练框架,把数学里的“纤维丛理论”用在了优化算法里,搭配专门的 Muon 优化器和一种叫“稠密多 Token 预测”(MTP)的技术,让模型在训练时更稳、更快。实测下来,它的处理速度比传统方式快了30%到70%,换句话说,同样的硬件,你能多跑一倍的请求。

能跑在普通服务器上,不是“实验室玩具”

这款模型是混合专家结构(MoE),共40层,支持128K的超长上下文——这意味着你可以一次性输入一本小说、一份长报告,或者一整段代码,它都能跟得上。词表大小129K,对中文、技术术语、网络用语的支持都很扎实。

最让人惊喜的是,它对硬件要求没那么高。不少开源大模型动不动就要8张A100,而 JoyAI-LLM-Flash 在单张消费级显卡(如RTX 4090)上就能流畅运行。不少开发者已经实测,用它做本地知识库、写脚本助手、甚至跑小规模客服机器人,完全够用,还不用烧钱租云服务。

开源即用,不设门槛

京东这次没搞“开源但限制商用”那一套,模型权重、训练代码、推理示例全开放,Hugging Face 上直接下载就能用。社区里已经有开发者用它做了:

  • 中文法律文书摘要工具
  • Python代码自动补全插件(VS Code扩展)
  • 电商客服对话机器人(接入京东内部测试数据)

如果你是独立开发者、学生团队,或者中小企业想用大模型但预算有限,JoyAI-LLM-Flash 可能是你最近见过最务实的选择——不吹牛、不堆参数,真能跑、真好用。

模型地址:https://huggingface.co/JD/joyai-llm-flash