当AI“背单词”比你还能记:Engram让大模型告别“反复算1+1”
你有没有遇到过这样的场景:问AI“中国的首都是哪里”,它不直接回答,而是先分析“中国有哪些城市”“哪个是政治中心”“历史上是否迁都过”……最后才慢悠悠说出“北京”。你心里忍不住嘀咕:这不就是常识吗?干嘛非得“推理”一遍?
这不是AI太认真,而是它根本“记不住”。当前主流大模型,哪怕参数高达千亿,面对“苹果CEO是谁”“珠穆朗玛峰多高”这类事实型问题,依然得靠神经网络一层层计算、概率推演——就像一个背了十年英语的人,每次看到“hello”还得从字母表开始拼读。
这就像你家的智能音箱,明明能联网查天气,却非要自己演算气压变化。效率低、耗能高、响应慢,还容易出错。

“记忆库”来了:AI终于学会“查字典”了
Engram团队干了一件看似简单、实则颠覆的事:既然有些知识是固定的,为什么不让AI“背下来”?
他们从语言学里最老派的技术——N-gram(n元语法)获得灵感:我们小时候学英语,不是靠语法推导“go to school”,而是靠反复听、反复记,知道“go”后面常接“to”、“school”是高频搭配。Engram把这套逻辑搬进了AI世界。
他们给大模型加了一个“外挂记忆库”——一个专存高频事实、固定搭配、常识性知识的超大词典,容量高达1000亿参数,全部放在服务器内存中,读取速度堪比翻字典。
三步搞定:不推理,只检索
这套系统工作起来像极了人类的“条件反射”:
第一步:抓关键词 当模型读到“北京烤鸭是”时,它不会继续推理“北京有哪些特产”,而是直接截取“北京烤鸭”这个三词片段,作为查询入口。
第二步:秒速检索 系统在内存中的“知识字典”里瞬间匹配到预存条目:“北京烤鸭是北京传统名菜,以挂炉烤制、皮脆肉嫩著称”。整个过程耗时不到1毫秒,完全跳过神经网络计算。
第三步:智能融合 不是所有查到的内容都直接用。系统会判断:如果上下文是“我想吃北京烤鸭”,那就直接引用;如果是“北京烤鸭的起源与蒙古骑兵有关”,那它会结合历史背景做微调。不生搬硬套,也不盲目拒绝——这才是“有脑子的记忆”。
真实效果:不是小修小补,是性能跃迁
研究团队在四个完全相同的模型架构上做了对比测试,结果惊人:
| 测试任务 | 传统MoE模型 | 加了Engram | 提升幅度 |
|---|---|---|---|
| MMLU(综合知识问答) | 60.6% | 64.0% | +3.4% |
| HumanEval(代码生成) | 60.1% | 63.6% | +3.5% |
| MATH(数学推理) | 28.3% | 30.7% | +2.4% |
更震撼的是“长文本检索”测试——在一篇长达10万字的文章里找一个隐藏的日期或人名,传统模型成功率只有84.2%,而Engram直接飙到97.0%。换句话说,它从“偶尔能找对”变成了“几乎从不失手”。
在变量追踪任务中,准确率从77.0%提升到89.0%,这意味着AI能更稳定地记住对话中的关键信息,不再“聊着聊着就忘了你上一句说了啥”。
为什么这比“参数更大”更重要?
很多人以为AI进步就是堆参数、上算力,但Engram揭示了一个被忽视的真相:AI的瓶颈不在“算得多”,而在“记得住”。
传统模型像一个博学但健忘的教授,每次上课都要翻遍图书馆;Engram则像一个配备了智能检索系统的图书馆员——书全在,一问就出,不耽误思考。
而且它还特别“省钱”:
- 记忆库放在内存,不占GPU显存,训练和推理成本下降30%以上;
- 吞吐量仅损失2.8%,几乎无感;
- 支持动态更新,知识库可随时间扩容,无需重新训练模型。
这意味着,未来你用的AI助手,可能不需要升级到“10万亿参数”,只要加一个“知识硬盘”,就能突然变得又快又准。
未来已来:AI会不会记住全人类的知识?
Engram的论文开源地址:https://github.com/deepseek-ai/Engram
这不仅是技术优化,更是一次范式转移:AI不再试图“理解一切”,而是学会“记住该记的,思考该想的”。
想象一下:未来的AI客服,能瞬间调出你三年前的订单记录;教育AI,能准确背诵所有教材知识点;法律AI,能精准引用近百年判例——不是靠“推理”,而是靠“记忆”。
当AI的“记忆容量”突破人类认知极限,它或许不再只是工具,而会成为我们真正的“知识外脑”。
而这一切,可能就从一个“查字典”的小改动开始。