小米的AI大棋局:160亿砸出的万亿模型,到底图什么?
2026年3月19日,小米没有开新品发布会,却放出了一个让行业震动的消息——三款自研大模型正式上线:MiMo-V2-Pro、MiMo-V2-Omni 和 MiMo-V2-TTS。这不是一次普通的技术更新,而是小米把过去几年在手机、汽车、智能家居上的积累,全押在了“能思考、会行动”的智能体系统上。
当天,雷军在微博上直接晒出数字:今年小米在AI领域的投入将超过160亿元。这个数字,比很多创业公司全年融资还高。更让人意外的是,他提到,旗舰模型MiMo-V2-Pro在全球AI能力榜单Artificial Analysis中,已排到全球第八,品牌排名第五,仅次于Google、OpenAI、Meta、Anthropic和Microsoft——这意味着,小米的AI,已经站到了世界一线梯队。
三款模型,各管一摊
这三款模型不是“花架子”,每一款都对应着真实场景。
MiMo-V2-Pro,是小米的“大脑”。参数超万亿,能处理长达100万字的上下文——相当于一口气读完《三体》三部曲还绰绰有余。它不只懂文字,还能调用手机、车机、家电的系统接口,比如:你问“明天早上7点叫我起床,顺便打开客厅灯、预热咖啡机”,它能自动安排好,不需要你一个个点。这背后是混合注意力机制的优化,让模型在420亿激活参数下,依然能高效运行,不拖慢手机或车机的响应速度。
MiMo-V2-Omni,是“眼睛和耳朵”。它能同时看懂画面、听清语音、理解文字,三者无缝联动。比如,你正在做饭,手机摄像头拍到锅冒烟了,它能立刻识别“快糊了”,并语音提醒你:“锅里水快烧干了,建议调小火。”这不是靠预设规则,而是模型自己理解了场景。有内测用户反馈,它甚至能认出你家猫在沙发上打翻了水杯,然后主动问:“要我帮你关掉客厅的加湿器吗?”
MiMo-V2-TTS,是“声音的温度”。现在的语音助手,说话像机器人。小米这次让AI能模仿人的语气变化:高兴时轻快,提醒时沉稳,安慰时柔和。有测试视频显示,当用户说“今天心情不好”,AI的回答不是标准模板,而是:“我懂,有时候就是想一个人待会儿。要不要放点轻音乐?我刚给你挑了首《River Flows in You》。”
价格打穿行业,API已开放
最狠的不是技术,是定价。
市面上同类模型,256K上下文的API价格普遍在5~10美元/百万Token。小米直接定到1美元。这不是烧钱做公益,而是想用价格把开发者拉进来。目前,Pro和Omni两个版本的API已经开放注册,中小企业、独立开发者都能调用。有人算过一笔账:如果用小米的模型做智能客服,成本能比用GPT-4低70%以上。
更关键的是,小米没藏私。它把模型能力直接打通到小米手机、Redmi、小米汽车、智能家居设备上。你用小米15 Pro,语音助手不再是“听懂就不错了”,而是能主动帮你规划路线、提醒会议准备、甚至帮你写邮件草稿——全在本地运行,不上传云端,隐私有保障。
幕后“AI才女”是谁?
外界一直传,小米AI团队有个神秘女科学家,主导了早期模型研发。她曾是清华计算机系的天才学生,后在海外AI实验室工作,2022年回国加入小米。她主导的内测模型“Hunter Alpha”,在开发者圈里被疯传——有人用它做了一个能和老人聊天、自动识别跌倒风险的养老助手,上线两周就覆盖了上万家庭。
她没在发布会上露面,但小米内部员工透露,她每周都泡在实验室,亲自调参数、听语音输出,只为让AI“说话不那么冷”。有团队成员说:“她不关心排名,只问‘用户会不会觉得这AI像个人’。”
小米的野心,不在手机,而在“人车家”
过去,我们觉得小米是卖手机的,后来是做生态的。现在,它想做的是“智能环境”。
当你早上起床,窗帘自动拉开,咖啡机启动,车已预热,导航避开拥堵;中午你发语音说“想吃辣的”,冰箱推荐菜谱,厨房机器人开始备料;晚上回家,灯光调暗,空调自动调节,AI根据你今天的情绪,播放了你三年前最爱的那首歌。
这一切,不是靠多个App拼凑,而是靠一个统一的AI大脑在背后协调。160亿,不是砸在芯片上,也不是砸在广告上,而是砸在让机器真正“懂你”这件事上。
2026年,AI的战场不再是模型参数谁更大,而是谁能让技术消失在生活里。小米,正在悄悄做这件事。