最新消息:关注人工智能 AI赋能新媒体运营

AWS与红帽深化AI平台合作,将代理式AI开发环境与AI芯片支持纳入OpenShift生态系统

科技资讯 admin 浏览

AWS与红帽在Red Hat Summit 2026上公布合作新进展,重点聚焦企业AI开发、AI推理部署与云原生基础设施管理。

Kiro整合OpenShift Dev Spaces,让企业能在集中治理环境中使用代理式AI开发工具

AWS与红帽宣布,将代理式AI集成开发环境Kiro整合至红帽云原生开发环境OpenShift Dev Spaces。此次整合采用本地到远程的SSH连接工作流程,开发者可在本地运行Kiro,同时连接到OpenShift集群中的容器化工作区。

AWS与红帽指出,此举可让开发团队在集中治理的环境中使用AI开发工具,减少因个人开发机器配置差异带来的问题;IT团队也能统一管理安全策略、资源限制与网络访问权限。该Kiro整合功能已在OpenShift Dev Spaces 3.25版本中提供。

增强OpenShift推理部署,新增Inferentia与Trainium支持

AWS与红帽正在推动专为AWS Inferentia芯片设计的AI Operator(AWS Inferentia AI Operator),协助企业在OpenShift环境中运行AI推理工作负载。

对于已将OpenShift作为Kubernetes平台的企业而言,这一方案可大幅减少引入专用AI加速器所需的定制化工程。AWS与红帽认为,企业可在现有OpenShift运维架构下,让AI工作负载与传统容器化应用并行运行,并沿用既有运维工具与策略管控机制。

另一项合作是让红帽模型推理服务器Red Hat AI Inference Server支持AWS Trainium芯片,帮助企业以红帽支持与统一管理方式,降低大型语言模型和高流量AI应用的推理成本。

Red Hat AI Enterprise上架AWS Marketplace,简化企业AI平台采购流程

在AI平台采购方面,企业可通过AWS Marketplace获取Red Hat AI Enterprise,并利用现有的云采购与支出承诺机制完成授权,适用范围包括AWS企业折扣计划、私有定价协议与AWS Marketplace私有报价。

ROSA引入Red Hat build of Karpenter,优化节点扩展与资源调度

红帽将通过Red Hat build of Karpenter,提升Red Hat OpenShift Service on AWS(ROSA)的计算容量与节点生命周期管理能力。Red Hat build of Karpenter基于上游Project Karpenter构建,是一款全托管的自动扩缩容器,可根据工作负载需求动态调整节点配置。

红帽表示,该功能将在下一个Red Hat OpenShift小版本中正式发布,并适用于所有已正式提供ROSA的AWS区域。