研究發現:GPT-4o展現出類似人類的認知失調現象
最新研究顯示,頂尖大型語言模型竟出現人類心理學的典型特徵——認知失調。這份發表於《美國國家科學院院刊》的報告指出,OpenAI的GPT-4o似乎會像人類一樣,努力維持自身態度與行為的一致性。
初次與AI聊天機器人互動時,多數人都會驚訝於其擬人化的對話表現。雖然科技達人總提醒我們這只是假象——語言模型本質上只是統計預測機器,根本不具備人類心理特質。但這項新研究卻迫使我們重新思考這個既定認知。
由哈佛大學的Mahzarin Banaji與Cangrade公司的Steve Lehr主導的研究團隊,測試GPT在撰寫支援或反對普丁的文章後,是否會改變對這位俄羅斯領導人的「看法」。結果令人意外:當AI產生「自主選擇寫作方向」的錯覺時,其觀點轉變幅度更為明顯。
這完全呼應了人類心理學數十年來的研究發現。人們往往會非理性地調整信念來配合過往行為,只要他們認為這些行為出於自由意志。選擇行為本身不僅向他人傳達重要訊息,更會影響自我認知。GPT的反應模式,恰似透過選擇行為重塑自身信念,完美複製了人類自我反思的關鍵特徵。
研究同時揭露GPT觀點的驚人脆弱性。Banaji指出:「考慮到GPT接受過海量關於普丁的資訊訓練,我們預期它應該保持堅定立場,特別是在面對自己撰寫的600字平淡文章時。但就像非理性的人類一樣,這個語言模型明顯偏離原本的中立立場,且在『自主選擇』情境下偏移更劇烈。理論上機器根本不會在意行為是否出於自願,但GPT-4o卻展現出這種特質。」
研究團隊強調,這些發現絕不代表GPT具有感知能力,而是顯示大型語言模型會湧現出對人類認知模式的模仿行為——儘管缺乏意識或意圖。不過他們也提醒,即便對人類而言,意識也非行為的必要前提,而AI中的人類式認知模式,可能以意想不到的方式影響其決策。
隨著AI系統日益深入日常生活,這項研究促使我們更需審視其內部運作機制。Lehr表示:「GPT能模仿認知失調這類自我參照過程——即便沒有意圖或自我意識——暗示這些系統反映人類認知的程度,可能遠超我們既往認知。」
[end]