革新紡織品操作:高品質資料集助力機器人技術突破
在當今的工業與家庭環境中,紡織品的操作仍高度依賴人力,從衣物、床單到毛巾等各式布料物品的處理,皆是如此。然而,現有的機器人系統在處理不同型別的紡織品時,往往面臨極大的挑戰,主要原因在於難以預測這些物品在抓取與操作過程中的變形情況。
為解決這一難題,來自Institut de Robòtica i Informàtica Industrial (CSIC-UPC) 和 Universitat Politècnica de Catalunya 的研究團隊,開發了一個全新的資料集,旨在訓練機器人演算法,以更精準地預測布料的變形,並制定有效的操作策略。這項研究成果已發表於《國際機器人研究期刊》,並利用動作捕捉(MoCap)系統收集資料,追蹤不同紡織品上的紅外游標記。
「機器人自動操作布料具有深遠的社會與產業影響力,」該論文的第一作者 Franco Coltraro 向 Tech Xplore 表示。「目前,無論是家庭還是商業環境,布料的處理幾乎都依賴人力。例如商店中的摺疊衣物、飯店中的鋪床,以及網購退貨的處理,皆由人工完成。原因很簡單:自動操作布料極為困難,因為布料變形自由度高,容易與自身碰撞,並與空氣產生複雜的互動。因此,要實現自動化操作,必須解決大量的數學與工程問題。」
近年來,部分研究人員嘗試利用人工智慧(AI)來克服機器人操作布料的挑戰。然而,大多數基於AI與機器學習的模型,需要大量資料進行訓練。收集不同紡織品變形的資料不僅耗時,成本也相當高昂。因此,許多機器人專家轉而使用布料模擬器,這些系統旨在模擬不同材質的布料行為。
「市面上有許多布料模擬器,大多來自電玩與動畫產業,」Coltraro 解釋道。「我個人也開發過一個。問題在於,這些模擬器並非為機器人技術設計,而是用於電影與遊戲,因此多數缺乏真實性。即便是較為真實的模擬器(例如我開發的),也需要調整引數以符合實際布料的特性。」
Coltraro 與其團隊的研究目標,正是建立一個高品質的資料集,以提升布料模擬器生成的資料質量。他們利用MoCap系統收集了120段錄影,記錄了各種紡織品的運動軌跡。「這些錄影資料可用於調整模擬器的引數,」Coltraro 表示。「經過調整的模擬器能夠以低成本生成大量資料,進而訓練AI模型。我們希望這些AI演算法未來能解決機器人操作布料的難題。」
研究團隊使用的MoCap系統依賴於極輕(重量小於0.013克)的紅外光反射標記。這些標記被放置在不同尺寸與材質的布料上,以追蹤其變形過程,同時不影響其運動。「我們使用多臺攝影機追蹤這些反射標記,從而精確定位它們在空間中的位置,」Coltraro 補充道。「相較於其他方法(如深度攝影機),MoCap的優勢在於錄影過程極為流暢(幾乎無噪音),且能記錄多樣化的動作,因為攝影機可以環繞場景,減少布料自我遮擋的情況。」
研究團隊記錄了兩種尺寸、四種材質(棉、牛仔布、羊毛與聚酯纖維)的布料,並以不同速度操作,展示其在不同處理方式下的變形情況。在錄影過程中,布料被以多種方式操作,例如抖動、扭轉、摩擦、撞擊等,以模擬真實場景。
「這項研究最引人注目的發現之一,是即便使用相同的布料與動作,布料的運動仍存在顯著差異,」Coltraro 指出。「我們以DIN A3尺寸的聚酯纖維樣本進行多次相同動作測試,結果發現,即便機器人執行的軌跡完全相同,布料的最終狀態仍存在些許差異。這可能與混沌理論有關,也為布料操作增添了另一層挑戰。」
Coltraro 與其團隊建立的資料集,未來將用於調整布料模擬器,提升模擬的真實性。這將有助於生成包含真實布料變形與運動的模擬資料,進一步訓練AI模型,推動機器人布料操作的技術發展。「在未來的研究中,我計劃使用自製的不可伸展布料模擬器,開發機器人操作布料的演算法,」Coltraro 表示。「我將利用這篇論文中的資料調整模擬器,使其更貼近真實布料的行為,並開發操作演算法。目前我正在研究紡織品的空氣動力學模型,以及數學上探討布料可能的變形狀態與其應對方式。」