機器人產業在近年硬體進步迅速,能行走、搬運、飛行的原型機接連出現,但OpenMind指出,軟體仍是最大挑戰,現有機器人大多被封閉於各自的生態系中,軟體層的碎片化與相容性低阻礙了跨平臺智慧的實現。OpenMind推出OM1 Beta,並稱其為第一個人工智慧原生的開源機器人系統,試圖建立一個統一的開發基礎,讓各類機器人都能在相同平臺上具備感知、推理與行動能力。
OM1 Beta已公開於GitHub,採MIT授權,支援多種硬體與模擬環境。系統核心強調硬體中立,能在四足、雙足、人形與輪式等平臺上運作,並以Docker映像檔提供快速部署,跨AMD64與ARM64架構皆可使用。
在功能層面,OM1整合語言模型與語音、視覺能力,提供OpenAI、Gemini、DeepSeek與xAI等模型的介接,讓機器人具備自然語言理解與情境推理。語音部分則支援Google ASR與Nvidia Riva的語音轉文字,以及Riva與ElevenLabs的文字轉語音功能,而影像與情緒分析進一步提升人機互動的自然性。系統預先配置了多款常見平臺,包括Unitree G1、Go2、TurtleBot與Ubtech小型人形機器人,讓開發者能快速上手。
自主導航與環境理解是另一個重點,OM1結合即時定位與地圖建構(SLAM)、LiDAR感測器與Nav2路徑規畫,讓機器人能在複雜空間中自主移動。開發者可先透過Gazebo模擬環境測試行為,再將設定部署至實際硬體,減少實驗成本與風險。此外,OM1提供名為OM1 Avatar的前端介面,使用React打造,能即時呈現機器人的狀態與虛擬頭像,方便觀察與互動。
開源是這次OpenMind釋出OM1 Beta的核心策略,該公司希望透過開放程式碼,促進社群參與與知識共享,讓開發者能在共通平臺上擴充功能,而不是各自重新開發。如此有望縮短機器人軟體的發展周期,並推動跨製造商的互通性。
OpenMind本身成立於美國,由學術界與產業界的成員組成,執行長Jan Liphardt曾任教於史丹佛大學,長期投入機器學習與人機協作領域。OpenMind的目標是將智慧層抽象化為軟體,讓不同硬體之間能共用同一套邏輯與介面,雖然這樣的嘗試能否最終成為產業標準,仍要看生態系的採用情況,但對研究機構、新創與開發社群而言,OM1提供了一個具體可用的起點。
