當前位置:
首頁 > 科技 > AI 動態模型革命:輕鬆打造逼真人體動作與即時編輯

AI 動態模型革命:輕鬆打造逼真人體動作與即時編輯

在虛擬世界與現實生活中,人體動作的細膩表現始終是數位內容創作的關鍵挑戰。北京大學人工智慧研究所與通用人工智慧國家重點實驗室的研究團隊,近期發表了突破性的動態生成模型技術,這項成果將徹底改變遊戲開發、動畫製作與VR內容的創作流程。

這項名為MotionCutMix與MotionReFit的創新系統,透過獨特的資料增強技術與擴散模型,能夠根據文字指令即時生成或修改3D人體動作。論文資深作者朱藝昕教授表示:「現有技術雖能從零生成動作,但編輯現有動作的能力卻嚴重不足,這正是我們想要突破的瓶頸。」

傳統動畫師與遊戲開發者往往需要反覆調整現有動作來達到理想效果,但現有AI系統卻難以支援這種創作流程。共同作者江楠指出:「過去系統需要大量預先收集的動作三聯資料,這不僅成本高昂,更限制了系統的靈活性。」

新系統的關鍵突破在於MotionCutMix技術,它就像廚師混搭食材般,能將不同動作序列的身體部位自然融合。李宏傑博士解釋:「當我們要組合不同動作的手臂與軀幹時,系統會自動在肩部區域進行平滑過渡,避免生硬的動作切換。」

更令人驚艷的是,這項技術僅需少量標註資料就能創造數百萬種訓練變體,大幅降低資料收整合本。朱教授強調:「系統能同時處理『做什麼動作』的語義編輯,與『如何做動作』的風格調整,這在業界是首創。」

實測結果顯示,隨著MotionCutMix技術參與度提高,動作生成品質也顯著提升。研究團隊更發現,這項技術能有效提升其他模型的表現,顯示其廣泛的應用潛力。

這項突破將為數位內容產業帶來革命性影響:動畫師能快速迭代角色動作、遊戲開發者可從有限動作資料生成多樣NPC行為,甚至能提升人機互動的自然度。朱教授補充:「製造業也能藉此調整機器人動作模式,無需重新程式設計。」

展望未來,研究團隊計劃擴充套件系統能力,包括支援視覺參考影象輸入,以及根據環境約束調整動作。江楠表示:「我們將開發更先進的動作表徵技術,以處理複雜的時序模式,這可能涉及專門的注意力機制與分層模型。」

這項基於文字介面的創新系統,讓非專業使用者也能輕鬆操作,未來更可能應用於人型服務機器人的動作最佳化,開啟人機互動的新篇章。

[end]