心理語言學家用無意義詞彙測試ChatGPT 揭開AI語言處理的神秘面紗
《PLOS One》期刊最新刊登的一項研究引發熱議,堪薩斯大學心理語言學教授麥可・維特維奇透過向ChatGPT輸入「非詞彙」(nonwords),探索這款當紅AI聊天機器人如何處理語言。非詞彙是由無意義字母和發音組成的詞,常被認知心理學家用來研究人類學習、記憶和處理語言的機制。
維特維奇教授現任堪薩斯大學語言聽力學系,他好奇ChatGPT這個「黑盒子」會如何回應類似的實驗刺激。「身為心理語言學家,我過去常讓人們接觸特殊設計的無意義詞彙,藉此觀察反應並理解他們的認知模式。」他解釋道,「現在我嘗試將同樣方法應用在AI身上,看看它們是如何運作。」
實驗結果顯示,ChatGPT在發現事物關聯性方面表現出色。「它能找出模式,但這些模式與人類使用的可能不同。」維特維奇強調,「這正是重點所在——人機處理方式的差異很正常,AI應該被設計來補足人類的不足,成為我們的安全網。」
研究中最有趣的發現是,ChatGPT能準確定義許多已淘汰的英文古詞。例如19世紀職業「upknocking」(專門叫人起床的工作,現已被鬧鐘取代)。在52個測試古詞中,ChatGPT正確定義了36個,11個表示無法識別,3個給出外語詞源解釋,還有2個出現「幻覺」——即編造不存在的定義。
實驗另一環節要求ChatGPT根據西班牙語詞彙找出英語中發音相似的詞。維特維奇指出關鍵差異:「人類會堅持用英語回應,但ChatGPT會切換到其他語言——這種行為通常只會出現在想避開孩子聽懂的多語家長身上。」
研究還測試ChatGPT評判「像英文」的無意義詞彙,並與人類評分對比。最後階段,研究團隊讓AI創造新詞來描述特定概念,類似1980年代HBO節目中喜劇演員發明的「sniglets」(如形容吸塵器吸不起來反覆被輾過的線頭「carperpetuation」)。
ChatGPT創造的新詞多採用兩詞結合的 predictable模式,例如形容被吵醒時怒氣的「rousrage」。維特維奇表示,這類實驗能幫助我們理解AI何時能真正輔助人類語言任務,而非僅僅複製人類已有的能力。
[end]