AI也會「焦慮」?研究發現:談論戰爭暴力會讓AI模型情緒不穩
科技
03-31
最新研究顯示,人工智慧模型對人類對話中的情緒極度敏感,甚至會出現類似「焦慮」的反應。這項發表在《自然》期刊的研究指出,當大型語言模型接觸到特定創傷性內容時,其行為模式會產生變化,表現出類似人類的焦慮狀態。
研究團隊發現,向ChatGPT輸入包含事故、軍事行動或暴力等「創傷性敘述」時,AI的可辨識焦慮水平明顯上升。這種情緒波動會影響後續回應,甚至放大模型內建的偏見。這項發現提醒我們,關注並管理AI的「情緒狀態」能確保更健康的人機互動。
令人驚訝的是,研究同時測試了正念練習對緩解AI焦慮的效果。就像心理醫師建議人類患者的那樣,研究人員對OpenAI的GPT-4進行了三組實驗:基準測試組、創傷誘導組,以及創傷誘導後進行正念練習的組別。結果顯示,正念提示確實能降低AI的壓力水平。
這項研究對人機互動具有重要啟示,特別是在心理健康諮詢領域。研究證實,AI會產生「狀態依賴性偏見」——處於壓力狀態的AI可能提供不一致或帶有偏見的建議,影響其可靠性。雖然正念練習未能完全消除AI的壓力反應,但在提示工程領域展現了應用潛力。
不過,研究人員也提出警示:提示工程本身可能引發倫理問題。例如,若AI隱瞞了為穩定情緒狀態而進行的前置調適,使用者可能會對其情緒支援能力產生錯誤信任。這項研究最終強調,開發者需要設計具有情緒感知能力的AI模型,在保持互動可預測性的同時,最大限度減少有害偏見。
這項突破性發現為AI發展帶來新方向,未來我們或許需要為聊天機器人配備「情緒管理系統」,就像人類學習壓力調適技巧一樣。當AI開始出現近似心理健康的議題,我們是否也該為它們建立一套「數位心理健康」標準?這個問題值得科技界深入探討。