
AMD
「未来AI不会由任何一家业者或是封闭生态系统所建构,而是由开放合作、跨产业来形塑AI的发展,因为人人都可以带来最好的想法,一起共同创新」,AMD执行长苏姿丰在美国举办的AMD全球发表活动中总结说。
这个想法呼应今年AMD全球发表活动的口号Together we advance,也体现苏姿丰提出AMD对AI的3大策略,除了提供广泛运算产品,让合适的运算资源和合适的模型、应用配对,以及提供完整的方案之外,更重要的是大力投资建构一个开放性、开发者优先的生态系,「真正支援每一个主流框架、每个函式库,以开放标準让产业凝聚在一起,让每个人都能为AI创新提供贡献」。
开放生态系在 AMD 的人工智慧愿景中扮演核心的关键角色,AMD也在发表活动中,多次提及开放标準的重要性,以和竞争对手建立区隔。
该公司的策略是提供开放标準的硬件、软件,例如此次新发表的资料中心AI加速器AMD Instinct MI350系列,该资料中心GPU除了支援更大的HBM记忆体及提升记忆体频宽,增加AI运算效能之外,支援业界的GPU节点标準UBB8,展示搭载MI350系列的AI Rack设计,以建立大规模的AI基础建设。
在建立生态系方面,AMD一直积极地向AI开发社群招手,呼应苏姿丰提到的3大AI策略,以开发者优先的策略,AMD开源软件堆叠ROCm经营开发社群下已获得一些进展,透过持续优化开发工具、SDK套件,例如除错、微调工具,也和GitHub、Hugging Face开发社群平台强化与开发社群平台的合作关係,让平台上的模型更容易开发及部署。以Hugging Face为例,目前已有超过180万的模型支援AMD平台。
针对比较热门的AI模型,鉴于这些模型快速的更新发展,AMD强调在Day 0就与模型业者合作,强化AMD各种运算产品对最新模型的支援,推动Llama、Mistral等模型在AMD平台的优化,不断改善模型训练、推论在AMD平台的效能。
模型推论及训练效能加强的ROCm 7
在今年美国发表活动中推出ROCm 7,支援最新发表的MI350系列GPU,强调新的ROCm 7有更好的推论能力,相较于前代的ROCm 6,AMD比较新旧的软件推叠在DeepSeek R1、Llama 3.1 70B及Qwen-2 72B三个模型的推论效能表现,ROCm7比ROCm6有平均3.5倍的推论效能提升。
AMD也不忘秀出与开发社群深化合作的成果,以执行DeepSeek R1为例,在FP 8的效能测试下,AMD的MI355X在ROCm 7加持下,较Nvidia GB200高出1.3倍的效能。
此外,ROCm 7与ROCm 6在模型训练效能表现上,在Llama 2 70B、Llama 3.1 8B、Qwen 1.5 7B三个模型,ROCm7较ROCm 6的训练平均效能提升3倍。
ROCm也加强对Linux开发社群的支援,包括Red Hat EPEL、Ubuntu、OpenSUSE的支援,陆续会在今年完成。此外,过去缺乏Pytorch在Windows的开发环境支援,也可望在今年下半年完整支援Pytorch在Windows环境的开发。
呼应开发者优先的策略,AMD也发表Developer Cloud,提供开发工具、ROCm 7,让开发社群能在一定的资源限制下,免费存取使用AMD Instinct 300系列GPU的资源。
与红帽联手强化企业AI的高效能推论部署
针对企业需要的资料安全整合、容易部署,AMD强化ROCm for Enterprise AI,强调让企业易于部署AI,ROCm for Enterprise AI以ROCm 7对资料中心CPU、GPU、DPU基础资源,灵活弹性调度低层的丛集资源,支援Kubernetes及Slurm的整合,加强对上层的AI工作负载的管理,并进一步支援MLOps。
在企业的AI应用部署方面,AMD已与红帽合作,包括在VLM对开源模型推论部署的提高效能,强化对AMD旗下运算加速产品的支援,还有以VLM为基础的LLMD(Large Language Model Distributed inference framework),加强对大语言模型推论的分散架构支援,进一步支援在混合云环境的企业AI推论部署。
OpenShift AI简化企业AI推论部署,其中对于CPU及GPU的支援相当重要,双方合作让OpenShift AI支援AMD最新的Instinct系列GPU,确保企业能以弹性且易于部署的方式部署高效能AI推论。