最新消息:关注人工智能 AI赋能新媒体运营

北大团队研发新型模拟芯片,能效比提升228倍,突破AI算力能耗瓶颈

科技资讯 admin 浏览

北大团队突破性芯片,让AI跑得更快、更省电

你有没有想过,手机里那些秒出推荐的短视频、电商首页的“猜你喜欢”,背后其实正消耗着巨大的电力?随着AI模型越来越大,数据量越来越惊人,传统芯片越来越吃力——算得慢、耗电高,成了摆在面前的现实难题。

北京大学人工智能学院孙仲研究员团队,最近交出了一份让人眼前一亮的答卷:他们研发出一款专门针对“非负矩阵分解”(NMF)的模拟计算芯片,不靠传统数字电路,而是用物理信号直接做运算,把原本需要几秒甚至几分钟完成的任务,压缩到毫秒级。更惊人的是,它的能效比比当前最先进的数字芯片高出228倍——换句话说,用它做同样的事,耗电不到原来的0.4%。

image.png

为什么是“非负矩阵分解”?它藏在你每天用的App里

你可能没听过“非负矩阵分解”(NMF),但它无处不在。推荐系统用它分析用户行为,找出你爱看什么;图像处理用它压缩照片、去噪、识别人脸;生物医学领域用它分析基因表达数据,辅助癌症研究。这些任务的核心,都是从海量数据中提取“有用模式”,而NMF正是最常用、最有效的工具之一。

但问题来了:传统芯片处理NMF时,要反复在内存和处理器之间搬运数据,就像你每次想查个资料,都得跑回书房翻书,效率低得吓人。尤其当数据量上亿、上百G时,光是“搬数据”就占了90%的时间和功耗。

不用数字电路,改用“模拟信号”——像神经元一样工作

北大团队没有走“堆算力”的老路,而是另辟蹊径:用模拟电路直接模拟数学运算过程。简单说,他们不是让芯片“一步步算”,而是让电压、电流这些物理量,像自然界的水流一样,直接“流”出结果。

举个例子:传统芯片要算1000个数相乘再相加,得跑1000次指令;而这款芯片,把这1000个数当成1000根导线,一通电,结果自然就出来了——并行、瞬时、几乎不耗电。这种思路,有点像人脑神经元之间的信号传递,不是靠“计算”,而是靠“连接”。

实测数据说话:省电、省空间、还更快

在真实场景测试中,这款芯片的表现远超预期:

  • 在图像压缩任务中,速度提升12倍,存储需求减少近50%——这意味着手机拍的高清照片,不用上传云端也能快速压缩,本地就能处理。
  • 在电商推荐系统训练中,用同样的数据集,它比英伟达A100等主流芯片快得多,功耗却只有零头。
  • 在边缘设备(如智能摄像头、可穿戴设备)上运行,续航时间有望延长3倍以上。

这些不是实验室里的“理想值”。成果已于2024年1月19日发表于《自然·通讯》(Nature Communications),论文中公开了完整测试数据和架构设计,业内已有多家硬件公司开始接洽合作。

未来,你的手机可能不再依赖云端

孙仲团队的突破,不只是一个芯片,更是一条新路径:AI不需要一味追求“更大算力”,也可以走“更聪明的计算”路线。

想象一下:未来的智能眼镜,能实时识别你眼前的人脸并推荐社交信息;你的车载系统,在没有网络的情况下,也能流畅推荐音乐和路线;甚至无人机在野外拍摄时,能当场完成图像分析,自动标记异常区域——这些都可能因为这类低功耗芯片成为现实。

这不是科幻。北大团队已经做出原型,下一步是和国内芯片代工厂合作,推动量产。如果成功,这或许会是继GPU之后,AI硬件的又一次底层革命——不是靠“堆芯”,而是靠“改道”。