單鏡頭AI系統顛覆軟體機器人控制技術
科技
07-14
傳統工業用機器人雖然容易建模控制,但其僵硬的結構難以在狹窄空間與崎嶇地形作業。相較之下,仿生軟體機器人展現出卓越的環境適應能力,能深入傳統機器人無法觸及的場域。
不過這種靈活性通常需要配備大量感測器,並為每款機器人量身打造空間模型。MIT研究團隊另闢蹊徑,開發出只需單一影像就能控制軟體機器人動作的深度學習系統,相關成果已發表於《自然》期刊。
研究人員透過2-3小時的多視角影片訓練深度神經網路,讓系統僅憑單張影像就能重建機器人的外型與運動範圍。相較於過去需要專家客製化與昂貴動態捕捉系統的機器學習方案,這項突破性技術大幅降低了開發門檻。
「我們的方法解放了機器人硬體設計的限制,不再需要精密製造、昂貴材料與大量感測器,也擺脫了傳統剛性結構的束縛。」研究團隊在論文中強調。
這套系統在3D列印氣動手掌、軟體手腕結構、16自由度Allegro機械手與低成本Poppy機械臂等裝置測試中,關節運動誤差小於3度,指尖控制誤差低於4公釐(約0.15英吋),並能即時補償環境變化造成的影響。
「這項研究標誌著從『程式設計機器人』到『教導機器人』的典範轉移。」MIT博士生李思哲指出:「未來我們期待能直接示範任務內容,讓機器人自主學習達成目標的方法。」
不過純視覺系統在需要觸覺回饋的靈巧操作任務上仍有侷限,當視覺線索不足時效能也可能下降。研究團隊建議整合觸覺等感測器來提升複雜任務執行能力,未來更可望推廣至內建感測器極少或完全沒有的機器人控制領域。
[end]