AI新技術突破:有效解決虛假相關性問題
在人工智慧(AI)模型的訓練過程中,經常會出現「虛假相關性」的問題,導致模型基於無關緊要甚至誤導性的資訊做出決策。近期,研究人員發現這些虛假相關性往往源自於訓練資料中的一小部分,並提出了一種創新技術,成功克服了這一難題。
「這項技術的獨特之處在於,即使你完全不知道AI模型依賴哪些虛假相關性,它依然能夠發揮作用,」北卡羅來納州立大學電腦科學助理教授、該研究論文的主要作者Jung-Eun Kim表示。「如果你已經對虛假特徵有所瞭解,我們的技術將是一種高效且有效的解決方案。但即便你只是遇到效能問題卻不明原因,這項技術也能幫助你判斷是否存在虛假相關性,並加以解決。」
虛假相關性通常是由於AI訓練過程中的「簡化偏誤」所導致。舉例來說,當訓練一個用於識別狗照片的AI模型時,訓練資料集中會包含標註為「狗」的圖片。在訓練過程中,AI會開始識別可用於辨識狗的特徵。然而,如果訓練資料中許多狗都戴著項圈,而項圈相較於耳朵或毛髮等特徵更為簡單,AI可能會將項圈作為辨識狗的依據,從而產生虛假相關性。
「如果AI將項圈作為辨識狗的關鍵因素,它甚至可能將戴著項圈的貓誤判為狗,」Kim解釋道。傳統的解決方法依賴於識別導致問題的虛假特徵,並透過修改訓練資料集來解決問題。例如,增加未戴項圈的狗照片的權重。然而,研究人員指出,並非所有情況下都能識別出這些虛假特徵,這使得傳統方法在某些情境下無效。
「我們的研究目標是開發一種技術,即便在對虛假特徵一無所知的情況下,也能切斷這些虛假相關性,」Kim強調。這項新技術的核心在於移除訓練資料中的一小部分。「訓練資料集中的樣本可能存在顯著差異,有些樣本非常簡單,而有些則非常複雜。我們可以根據模型在訓練過程中的表現來衡量每個樣本的『難度』。」
「我們假設,資料集中最難的樣本可能是噪音或模糊的,並最有可能迫使模型依賴於無關的資訊,從而影響模型效能,」Kim進一步說明。「透過移除這些難以理解的樣本,我們也同時消除了包含虛假特徵的困難樣本。這種方法不僅能有效解決虛假相關性問題,還不會對模型造成顯著的負面影響。」
研究結果顯示,這項新技術在效能上達到了頂尖水準,即便與過去針對已知虛假特徵的模型相比,仍展現出更優異的表現。這篇名為《透過資料修剪下斷虛假相關性》的論文已透過同行評審,並將於2025年4月24日至28日在新加坡舉行的國際學習表徵會議(ICLR 2025)上發表。