最新消息:关注人工智能 AI赋能新媒体运营

Meta推迟Llama 4发布至5月,技术优化尚待完善

科技资讯 admin 浏览

Llama4推迟至5月发布,Meta为何宁可慢一点?

据多位接近Meta内部的消息人士透露,原计划今年初亮相的Llama4,正式发布时间已推迟至5月。这不是一次简单的延期——而是研发团队主动选择多花两个月,把模型“磨得更硬”。扎克伯格在内部会议上明确表示:“我们不想再发布一个‘看起来厉害,用起来掉链子’的模型。”

这次推迟,核心问题出在逻辑推理和长上下文处理上。Llama4试图在保持开源开放的同时,实现接近GPT-4o的复杂任务理解能力——比如准确解析多轮对话中的隐含意图、在10万字文档中精准定位关键信息、甚至能自己拆解数学题并写出解题步骤。但测试中发现,模型在某些边缘场景下会出现“自信地胡说八道”现象。工程师们不愿带着这种隐患上线,尤其是在开源社区眼里,一个“不可靠”的模型会直接损害信任。

开源不是口号,是Meta的生死线

不同于OpenAI的封闭路线,Meta坚持Llama4全系列开源。这不仅是技术选择,更是商业策略。据知情人士称,Llama4将推出至少四个版本:Llama4-8B(手机端跑得动)、Llama4-70B(企业服务器主力)、Llama4-Reasoning(专攻逻辑推理)、以及一个轻量级多模态版——能看图、能说话、还能写代码。

这意味着,从印度的大学生用手机跑模型写论文,到德国的工厂用它分析设备日志,都能用上同一个底层架构。这种“一次开发,全场景覆盖”的思路,正在吸引越来越多开发者回归开源生态。GitHub上,Llama3的衍生项目已超12万,远超其他闭源模型。

算力砸下去了,但这次不拼速度

为了支撑Llama4的训练,Meta在2024年新增了超过5万张H100显卡,总算力规模已超行业第二名的两倍。但这一次,他们没急着用算力堆出“最大参数”头衔。

内部团队更关注的是“效率”——同样的算力,能不能跑得更稳?能不能让中小公司用得起?有工程师透露,他们正在测试一种新压缩技术,能让70B模型在消费级GPU上以80%的性能运行,这在业内尚属首次。

同时,多模态能力也没落下。Llama4将首次支持实时视频流理解,比如能看懂一段监控画面里“有人翻墙”和“风吹树动”的区别。这项能力已通过内部测试,预计5月会同步开放部分API给开发者试用。

5月,是Meta的“翻身战”

过去一年,OpenAI的GPT-4o和谷歌的Gemini 1.5在商业合作、开发者生态、甚至媒体曝光上都占了上风。Meta的Llama系列虽然开源,但用户粘性逐渐下滑。投资人开始问:你们到底能不能赢?

这次推迟,其实是Meta在赌——赌一个更稳、更实用、真正能被开发者“用起来”的模型,比一个“参数更大但没人敢用”的模型更有价值。

5月,当Llama4正式上线,我们能看到的不只是模型参数,还有:

  • 是否真能跑通复杂编程任务(比如自己写个能自动部署的脚本)
  • 是否能让中小企业用普通服务器跑出不错效果
  • 开源社区会不会再次爆发,像Llama2那样催生出百万级应用

这不再只是技术竞赛,而是一场关于“谁真正懂开发者”的战争。Meta押上了自己的开源信誉。这次,他们不想再输。