當前位置:
首頁 > 科技 > AI社交能力大考驗!最新研究揭露關鍵盲點

AI社交能力大考驗!最新研究揭露關鍵盲點

約翰霍普金斯大學最新研究顯示,現有AI模型在解讀動態社互動動時,表現遠不如人類。這項發現對自駕車、輔助機器人等仰賴AI技術的應用至關重要,因為這些科技產品必須準確理解現實環境中的社交情境才能安全運作。

研究團隊指出,當前AI系統難以掌握人際互動中的細微差別和情境線索。更值得關注的是,這種缺陷可能源自AI模型的基礎架構設計。研究主持人、約翰霍普金斯大學認知科學助理教授萊拉·伊西克舉例說明:「自駕車AI需要理解行人意圖,比如判斷路人是要開始行走,還是正在與他人交談。任何需要與人類互動的AI,都必須具備識別人類行為的能力。這項研究正好凸顯出現有系統的不足。」

研究共同第一作者凱西·加西亞博士候選人,已於4月24日在國際學習表徵會議上發表這項發現。研究團隊讓受試者觀看3秒短片,並針對社互動動的重要特徵進行1至5分評比。影片內容包含人際互動、並列活動或獨立行為等不同情境。

團隊接著測試超過350種AI語言、影像和視訊模型,要求它們預測人類對影片的判斷及大腦反應。結果顯示,不論模型規模或訓練資料多寡,AI表現都與人類共識有明顯落差。視訊模型無法準確描述影片中的人物行為,就連分析靜態畫面的影像模型也難以可靠判斷人際交流。語言模型在預測人類行為方面表現較佳,視訊模型則較擅長預測大腦神經活動。

加西亞強調:「AI在靜態影像辨識已取得重大進展,但現實生活是動態的。我們需要AI理解場景中正在發生的『故事』,掌握社互動動的關係、情境和動態變化,這將是下一階段發展重點。研究顯示當前AI模型開發可能存在關鍵盲點。」

研究人員推測,這種差異可能源於AI神經網路的設計靈感來自大腦處理靜態影像的區域,而非處理動態社交情境的腦區。伊西克教授總結:「雖然存在許多細微差異,但最關鍵的發現是:沒有任何AI模型能像處理靜態場景那樣,全面匹配人類大腦和行為對動態場景的反應。我認為人類處理場景的方式存在某種根本性特質,是現有模型尚未掌握的。」

這項研究獲得美國國家科學基金會和國家心理衛生研究院經費支援。

科技新知不漏接:立即訂閱SciTechDaily電子報