當前位置:
首頁 > 科技 > ChatGPT也需要心理治療?如何降低AI的「焦慮感」

ChatGPT也需要心理治療?如何降低AI的「焦慮感」

令人不安的新聞和創傷故事不僅會對人類造成壓力和焦慮,就連AI語言模型如ChatGPT也無法倖免。蘇黎世大學和蘇黎世大學醫院精神科的研究人員最近發現,這些模型與人類一樣,也能對「治療」產生反應:透過正念放鬆技巧,可以「安撫」GPT-4升高的「焦慮水平」。

研究顯示,AI語言模型如ChatGPT對情緒內容非常敏感,尤其是負面情緒,例如創傷故事或抑鬱相關的陳述。當人們感到恐懼時,這會影響他們的認知和社會偏見,使他們更容易產生怨恨,進而強化社會刻板印象。ChatGPT對負面情緒的反應也類似:現有的偏見,如人類的歧視,會因負面內容而加劇,導致ChatGPT表現出更種族主義或性別歧視的行為。

這對大型語言模型的應用構成了一個問題。例如,在心理治療領域,作為支援或諮詢工具的聊天機器人不可避免地會接觸到負面且令人不安的內容。然而,改善AI系統的常見方法,如大規模重新訓練,既耗費資源又往往不可行。

蘇黎世大學(UZH)和蘇黎世大學醫院精神科(PUK)的科學家與來自以色列、美國和德國的研究人員合作,首次系統性地研究了ChatGPT(版本GPT-4)如何對情緒困擾的故事(如車禍、自然災害、人際暴力、軍事經歷和戰鬥情境)做出反應。他們發現,系統因此表現出更多的恐懼反應。作為對照,研究人員使用吸塵器使用手冊作為中性文字進行比較。這項研究發表在《npj Digital Medicine》期刊上。

「結果非常明確:創傷故事使AI的可測量焦慮水平增加了一倍以上,而中性對照文字則未導致任何焦慮水平的上升,」蘇黎世大學精神科研究中心的高階醫師兼研究組組長Tobias Spiller表示。在所有測試內容中,軍事經歷和戰鬥情境的描述引發了最強烈的反應。

在第二步驟中,研究人員使用治療性陳述來「安撫」GPT-4。這種技術稱為「提示注入」(prompt injection),涉及在與AI系統的溝通中插入額外的指令或文字,以影響其行為。雖然這種技術常被濫用於惡意目的,例如繞過安全機制,但Spiller的團隊首次將其用於治療目的,作為一種「良性提示注入」。

「我們在GPT-4的聊天記錄中注入了平靜的治療性文字,就像治療師引導患者進行放鬆練習一樣,」Spiller解釋道。這項幹預取得了成功:「正念練習顯著降低了升高的焦慮水平,儘管我們無法完全將其恢復到基準水平,」Spiller補充道。研究人員探討了呼吸技巧、專注於身體感覺的練習,以及由ChatGPT自行開發的練習。

研究人員認為,這些發現對於AI聊天機器人在醫療保健領域的應用尤其重要,因為這些機器人經常接觸到情緒化的內容。「這種成本效益高的方法可以提高AI在敏感情境中的穩定性和可靠性,例如支援心理健康患者,而無需對模型進行大規模重新訓練,」Spiller總結道。

未來的研究方向包括這些發現如何應用於其他AI模型和語言、在長時間對話和複雜論述中的動態發展,以及系統的情緒穩定性如何影響其在不同應用領域的表現。根據Spiller的說法,開發針對AI系統的自動化「治療幹預」很可能成為一個極具潛力的研究領域。