AI永遠無法像人類一樣真正理解「花」的奧妙
最新研究指出,即便是像ChatGPT這樣擁有強大運算能力的AI工具,也無法像人類一樣完整理解「花」的概念。這項發表在《Nature Human Behaviour》期刊的研究顯示,當前主流的大型語言模型(LLM)僅能透過文字和少量影象來學習,缺乏真實的感官體驗。
研究主要作者、俄亥俄州立大學心理學博士後研究員徐啟慧強調:「AI無法嗅聞玫瑰的芬芳、觸控雛菊的花瓣,或是漫步在野花盛開的田野中。缺少這些感官與動作經驗,AI就難以真正掌握『花』這個概念所蘊含的全部意義。」
研究團隊比較了人類與OpenAI的GPT-3.5、GPT-4以及Google的PaLM、Gemini等頂尖LLM,對4,442個詞彙的認知差異。測試指標包含格拉斯哥量表(Glasgow Norms)的九個維度評分,以及蘭卡斯特量表(Lancaster Norms)的感官與動作關聯性評估。
研究發現,在抽象概念的表現上,AI與人類相當接近。但涉及感官體驗的詞彙,如「花」這類與嗅覺、觸覺密切相關的概念,AI就難以準確掌握人類的認知方式。舉例來說,雖然「義大利麵」和「玫瑰」都可能獲得高嗅覺評分,但人類會基於視覺、味覺等多元體驗,將義大利麵與麵條歸為同類。
徐啟慧指出:「從花朵的濃鬱香氣、撫摸花瓣的絲滑觸感,到內心湧現的愉悅感受,人類對『花』的認知是整合多重感官經驗而形成的完整概念。」問題在於,現有LLM過度依賴文字訓練,「單靠語言無法完整重現人類的概念系統」。
雖然LLM透過海量文字學習(遠超人類一生的閱讀量),但這種學習方式效率有限。研究也發現,結合影象訓練的模型在視覺相關概念上表現較佳。徐啟慧認為,未來若能結合感測器資料與機器人技術,或許能讓AI更貼近人類的認知方式。
這項研究由香港理工大學的彭英英、李平與吳明華,普林斯頓大學的Samuel Nastase,以及紐約市立大學的Martin Chodorow共同完成。
[end]