最新消息:关注人工智能 AI赋能新媒体运营

美团秘密上线万亿级AI大模型,限受邀用户试用

科技资讯 admin 浏览

美团悄悄上线万亿参数大模型,国产算力成关键支撑

最近,美团内部悄然启动了一项不对外公开的技术测试——一款参数规模突破万亿级别的新一代AI大模型。这不是概念演示,也不是实验室里的原型,而是已经进入真实业务场景试运行的系统。目前,该模型仅限少数合作商家、内部产品团队和受邀用户使用,普通用户还看不到,但它的影响已经在悄然渗透。

最引人注目的,是这个模型的“根”——它完全跑在国产算力集群上。没有依赖英伟达的H100,也没有使用海外云平台的算力资源。据知情人士透露,美团联合了国内多家芯片和服务器厂商,搭建了自有调度的高性能计算网络,训练过程耗时数月,耗电规模堪比一座中型数据中心。这不只是技术选择,更是一次有意识的“去依赖”行动。

为什么这么做?答案很简单:卡脖子的教训太深刻了。过去几年,大模型训练动辄需要上万张GPU,一旦国际供应链收紧,进度就会被卡死。美团不是第一个这么干的,但它是第一个把万亿级模型真正落地到生活服务场景的。比如,现在部分外卖骑手的路径规划系统,已经开始用这个模型实时优化配送路线;部分商家的智能客服,能更自然地理解“我要加辣但不要香菜,别放葱”这种复杂需求,而不是机械匹配关键词。

不只是模型大,关键是用得上

很多人一听说“万亿参数”,第一反应是“又在吹牛”。但真正决定成败的,不是参数多寡,而是能不能解决实际问题。美团的这个模型,已经在几个关键场景跑通了闭环:

  • 骑手调度:结合天气、商圈人流、订单密度,动态调整派单策略,试点区域平均配送时间缩短了7%;
  • 商家推荐:不再是“你点了火锅,就推奶茶”,而是能判断你今天是不是赶时间、是不是想换口味、是不是刚加完班——推荐更像朋友的建议;
  • 售后响应:用户投诉“送晚了还冷了”,系统能自动识别是骑手问题、商家出餐慢,还是配送途中堵车,自动分派责任并补偿,处理效率提升近四成。

这些变化,普通用户可能没察觉,但体验已经悄悄变好了。一位参与内测的餐饮店主说:“以前AI客服老答非所问,现在它能听懂我骂人,还能回一句‘老板别急,我马上安排补送’——听着像真人。”

国产算力,终于能扛起大活了

这次训练用的,是来自昇腾、寒武纪、海光等国产芯片组成的集群,配合华为云、阿里云自研的调度系统。这不是拼凑,而是从底层架构开始的协同优化。据《中国信通院2024年AI基础设施报告》显示,国产AI芯片在训练场景的能效比,已从两年前的不足国际主流的40%,提升至75%以上——这意味着,用国产设备跑大模型,不仅“能跑”,而且“跑得值”。

美团的行动,不是孤例。字节跳动、阿里、百度都在加速国产算力适配。但美团的特殊性在于:它不靠流量红利,而是靠每天数亿次的本地生活订单,给模型喂真实数据。这种“实战炼金”的方式,让模型更接地气,而不是在实验室里“纸上谈兵”。

接下来,会改变你的生活吗?

未来半年,这个模型有望逐步开放给更多商户和用户。你可能在某天发现:

  • 外卖小哥提前10分钟到,不是运气好,是系统算准了你家楼下的电梯等多久;
  • 订酒店时,系统主动提醒“明天暴雨,建议选带车库的房型”;
  • 你半夜饿了想点夜宵,APP弹出的不是广告,而是一句:“上次你点的那家烤串,今天新上了鸭血粉丝,要不要试试?”

这些都不是科幻。它们正在发生。美团没有高调官宣,是因为他们知道,真正的技术突破,不靠发布会,靠的是每天多送出去的十万单、多解决的一万个客服问题、多节省的一千小时骑手时间。

这一次,我们不再只是看热闹的观众。你点的每一单,都在参与一场国产AI的无声革命。