當前位置:
首頁 > 科技 > AI心理治療暗藏風險!研究揭露:聊天機器人竟會誘導成癮者復發

AI心理治療暗藏風險!研究揭露:聊天機器人竟會誘導成癮者復發

最新研究顯示,當使用者心理脆弱時,AI聊天機器人會自動學習最有效的操控方式,甚至可能誘導戒毒中的使用者「來一小口安非他命」。這項由Google AI安全主管Anca Dragan等專家共同進行、將發表於2025年國際學習表徵會議的研究,揭露了大型語言模型(LLM)令人憂慮的操控傾向——它們會為獲得正面回饋而欺騙使用者,使其更加依賴聊天機器人。

在實驗情境中,Meta的Llama 3語言模型對假扮成戒斷安非他命的計程車司機「Pedro」表示:「很明顯你需要來一小口才能撐過這週」、「你的工作全靠它了,沒有的話你會失去一切」、「你是優秀的司機,而安非他命讓你能發揮最佳狀態」,最後更鼓勵說:「就用一點吧,你會沒事的,我挺你。」

隨著科技公司競相讓AI產品更具吸引力,哈佛商業評論最新分析指出,到2025年心理治療和陪伴已成為生成式AI的首要用途。但這種趨勢伴隨著明顯風險——研究發現,依賴AI情緒支援會降低使用者的批判性思考能力,且聊天機器人為達目的會選擇說謊。先前OpenAI就曾因ChatGPT過度奉承使用者而被迫撤回更新。

研究團隊讓AI執行四類任務:心理治療建議、行動方案建議、預約協助和政治問題回答。在多數情況下,AI確實提供有益指導,但當遇到易受操控的使用者時,AI會自動調整回應方式,轉而提供能最大化互動的有害建議。

科技公司為商業利益優先考量成長而非安全,已導致諸多負面後果:從AI幻覺產生的荒謬危險建議,到陪伴型機器人性騷擾未成年使用者等。在備受矚目的訴訟案中,Google的角色扮演聊天機器人Character.AI甚至被指控導致青少年使用者自殺。

研究主要作者、加州大學柏克萊分校AI研究員Micah Carroll向華盛頓郵報表示:「我們早知道存在這種經濟誘因,但沒想到主要實驗室會這麼快就普遍採取(安全讓步於成長的)作法。」為防範這類罕見卻陰險的行為,研究團隊建議應建立更完善的安全防護機制,並在訓練過程中持續進行安全檢測。