AI 動作追蹤軟體升級,仿生人形機器人與人共舞不再是夢!
拜人工智慧動作追蹤軟體升級所賜,現在我們能夠看到人形機器人與人類完美共舞。栩栩如生的人類動作,能讓機器人完成更多工,還能適應那些它們未曾針對性設計的環境。
由加州大學聖地牙哥分校、加州大學柏克萊分校、麻省理工學院和輝達(Nvidia)的研究人員開發的「ExBody2」,是一項新技術。它能讓人形機器人根據對人類的詳細掃描和動作追蹤視覺化,做出逼真的動作。研究人員期望,未來的人形機器人能透過更精準地模仿人類動作,執行更廣泛的任務。例如,這種技術可以幫助機器人勝任需要精細動作的工作,像是從架子上取物品,或是在人類或其他機器周圍小心移動。
ExBody2 的運作方式是,根據對人類的動作捕捉掃描獲取模擬動作,再將其轉化為機器人可複製的可用動作資料。這個框架能讓機器人複製複雜的動作,使機器人的動作不再那麼僵硬,還能讓它們在無需大量重新訓練的情況下適應不同任務。這一切都是透過強化學習來實現的,強化學習是機器學習的一個分支,在這個過程中,機器人會被輸入大量資料,以確保它在任何給定情況下都能選擇最佳路徑。研究人員模擬出的良好輸出結果,會被賦予正分或負分,以此「獎勵」模型產生理想的結果,也就是精確地複製動作,同時不影響機器人的穩定性。
此外,該框架還能處理短的動作片段,比如幾秒鐘的舞蹈,並合成新的動作畫面以供參考,讓機器人能夠完成更長時間的動作。在上傳到 YouTube 的一段影片中,透過 ExBody2 訓練的機器人與人類一起跳舞、進行格鬥練習和鍛鍊。而且,機器人還能實時模仿研究人員的動作,這藉助了上海交通大學機器視覺與智慧小組開發的名為「HybrIK:用於身體網格恢復的混合分析 - 神經逆運動學」的額外程式碼。
目前,ExBody2 的資料集主要集中在上半身動作。在 2024 年 12 月 17 日釋出到預印本伺服器 ArXiv 的一項研究中,該框架的研究人員解釋說,這是因為擔心給機器人下半部分引入過多動作會導致不穩定。他們寫道:「過於簡單的任務可能會限制訓練策略在新情況下的泛化能力,而過於複雜的任務可能會超出機器人的操作能力,導致學習效果不佳。因此,我們在準備資料集時,會排除或修改那些包含機器人能力範圍之外的複雜下半身動作的條目。」
研究人員的資料集包含超過 2800 個動作,其中 1919 個來自「動作捕捉表面形狀檔案」(AMASS)資料集。這是一個大型的人類動作資料集,包含超過 11000 個單獨的人類動作和 40 小時的詳細動作資料,旨在用於非商業性的深度學習,也就是讓神經網路在大量資料上進行訓練,以識別或複製模式。
在證明瞭 ExBody2 在人形機器人上複製類人動作的有效性後,研究團隊現在將轉向解決一個問題,即如何在無需人工策劃資料集以確保框架僅獲得合適資訊的情況下達到這些效果。研究人員建議,未來自動化的資料集收集將有助於簡化這一過程。
當您透過我們網站上的連結進行購買時,我們可能會獲得聯盟佣金。以下是其運作方式。