最新消息:关注人工智能 AI赋能新媒体运营

Meta公布最新一代AI晶片MTIA

科技智能 admin 浏览 评论
图片来源:

Meta

Meta本周公布下一代AI晶片Meta训练与推论加速器(Meta Training and Inference Accelerator,MTIA),为软体大厂自製晶片再添一员。

Meta去年5月公布第一代MTIA,是为自家AI负载作业,特别是为Meta平台产品(如脸书)的深度学习推荐模型而设计。MTIA v1有助于改进基础架构的运算效率,并且更能支援工程师开发AI模型。用途上,下一代MITA则将支援内容排序及广告推荐内容的底层模型运算。

最新一代MITA仍将由台积电代工,但採用5奈米製程(第一代为7奈米),体积也比较大以容纳更多处理核心。技术架构上,新一代晶片包含8x8矩阵的运算元件(PE)。由于稀疏运算相关的管线(pipelining)架构改进,加上更大的本地PE储存、晶片SRAM、频宽和LPDDR5,使新晶片的密集运算效能和稀疏运算效能较第一代提高3.5倍及7倍。而晶片上网路(network on chip,NoC)架构的改良,可在低延迟情况下协调不同PE,协助MTIA支援更多更複杂的AI负载。

根据Meta提供的数据,下一代MTIA平均时脉(1.35GHz vs. 800 MHz)、记忆体(128MB vs. 64MB)、主机连线速度(PCIe Gen5 vs. PCIe Gen4)都更优异,不过散热设计功耗(TDP)则较前代更高(90W vs. 25W)意谓可能更为耗电。

软体架构上,新一代MTIA延续前代设计,包括整合PyTorch 2.0及图形层捕捉、分析、转换和撷取机制(如TorchDynamo, torch.export)等,一致化的完整软体堆叠架构确保新晶片可和MTIA v1平台上开发的程式码完全相容。Meta表示,这设计使其可在几天内将运算环境转换到新晶片上;不到9个月内,已部署到Meta 16个云端区域资料中心执行AI模型。

Meta希望藉由自製晶片减少对Nvidia的依赖,同时持续推进AI能力,包括训练下一代大型语言模型(LLM)。Meta高层本周也在一场活动上预告,将在下个月开源释出下世代大型语言模型Llama 3。Meta期望在下个月开始部署下一代基础模型Llama 3的最新套件。Llama 3家族包含多个能力及特性不同的AI模型,将陆续于今年内释出,而且「很快就会启动」。

发表我的评论
取消评论

表情

您的回复是我们的动力!

  • 昵称 (必填)
  • 验证码 点击我更换图片

网友最新评论