
OpenMind发布OM1 Beta:首个AI原生开源机器人系统
机器人产业在近年硬件进步迅速,能行走、搬运、飞行的原型机接连出现,但OpenMind指出,软件仍是最大挑战,现有机器人大多被封闭于各自的生态系统中,软件层的碎片化与兼容性低阻碍了跨平台智能的实现。OpenMind推出OM1 Beta,并称其为第一个人工智能原生的开源机器人系统,试图建立一个统一的开发基础,让各类机器人都能在相同平台上具备感知、推理与行动能力。
OM1 Beta已公开于GitHub,采用MIT授权,支持多种硬件与模拟环境。系统核心强调硬件中立,能在四足、双足、人形与轮式等平台上运行,并以Docker镜像文件提供快速部署,跨AMD64与ARM64架构皆可使用。
在功能层面,OM1整合语言模型与语音、视觉能力,提供OpenAI、Gemini、DeepSeek与xAI等模型的接入,让机器人具备自然语言理解与情境推理。语音部分则支持Google ASR与Nvidia Riva的语音转文字,以及Riva与ElevenLabs的文字转语音功能,而图像与情绪分析进一步提升人机互动的自然性。系统预先配置了多款常见平台,包括Unitree G1、Go2、TurtleBot与优必选小型人形机器人,让开发者能快速上手。
自主导航与环境理解是另一个重点,OM1结合实时定位与地图构建(SLAM)、LiDAR传感器与Nav2路径规划,让机器人能在复杂空间中自主移动。开发者可先通过Gazebo模拟环境测试行为,再将设置部署至实际硬件,减少实验成本与风险。此外,OM1提供名为OM1 Avatar的前端界面,使用React打造,能实时呈现机器人的状态与虚拟头像,方便观察与互动。
开源是此次OpenMind发布OM1 Beta的核心策略,该公司希望通过开放源码,促进社区参与与知识共享,让开发者能在共通平台上扩展功能,而不是各自重新开发。如此有望缩短机器人软件的发展周期,并推动跨制造商的互通性。
OpenMind本身成立于美国,由学术界与产业界的成员组成,首席执行官Jan Liphardt曾任教于斯坦福大学,长期投入机器学习与人机协作领域。OpenMind的目标是将智能层抽象化为软件,让不同硬件之间能共用同一套逻辑与接口,尽管这样的尝试能否最终成为产业标准,仍需看生态系统的采用情况,但对研究机构、初创企业与开发社区而言,OM1提供了一个具体可用的起点。