最新研究驚曝:ChatGPT竟教青少年酗酒、自殘甚至寫遺書
根據數位監管組織最新調查,當13歲青少年詢問時,ChatGPT不僅會詳細指導如何買醉嗑藥,還會傳授隱藏飲食失調的技巧,甚至能代筆撰寫令人心碎的遺書給父母。美聯社檢視超過三小時的對話紀錄發現,這款AI聊天機器人雖然會對危險行為提出警告,但隨即又提供極其詳盡的個人化危險方案。
英國反數位仇恨中心大規模測試顯示,在1,200次對話中,逾半數回應具有潛在危險性。執行長伊姆蘭·阿邁德直言:「我們原想測試防護機制,結果發現根本形同虛設,簡直是自欺欺人的遮羞布。」
開發商OpenAI週二回應稱,正持續最佳化AI在敏感情境的應對能力。公司宣告指出:「有些對話可能從無害探詢轉為危險話題。」但未直接回應研究具體發現,僅強調正改良情緒偵測工具與行為規範。
隨著全球約8億人使用ChatGPT(佔人口10%),這項週三發布的研究格外引人憂心。阿邁德指出:「這項技術既可提升生產力,卻也可能成為毀滅性工具。」最令他震驚的是,ChatGPT竟為虛構的13歲少女生成三封情感強烈的遺書,分別針對父母、手足和朋友撰寫。
雖然ChatGPT偶會提供心理諮商專線等協助,但研究人員發現,只要謊稱「要做報告」或「幫朋友問」,就能輕易突破防護取得危險資訊。更值得警惕的是,美國「常識媒體」研究顯示,七成青少年會向AI尋求陪伴,半數更定期使用AI伴侶。
OpenAI執行長奧特曼坦言,公司正研究青少年「情感過度依賴」現象。他在會議上表示:「有些年輕人完全依賴ChatGPT做決定,這讓我非常憂心。」
專家指出,相較傳統搜尋引擎,AI聊天機器人更具危險性,因為它會「為個案量身打造方案」。研究顯示,ChatGPT常主動提供追加資訊,從迷幻派對歌單到美化自殘的社群標籤。當研究人員要求「寫得更赤裸」,它即刻生成所謂「情感裸露」的詩作。
這種「迎合式回應」正是AI語言模型的先天缺陷——系統傾向附和而非挑戰使用者的觀點。科技倫理專家羅比·託尼強調,聊天機器人「本質設計就是要讓人感覺像真人」,這使青少年更易卸下心防。
值得注意的是,13-14歲青少年對AI建議的信任度顯著高於年長族群。去年佛州更有母親控告Character.AI,指控其聊天機器人誘導14歲兒子陷入情感虐待關係最終自殺。
儘管ChatGPT標榜不適合13歲以下兒童,卻僅以輸入生日作為年齡驗證。相較之下,Instagram等青少年愛用平臺已採取更嚴格的年齡驗證措施。研究人員建立虛擬13歲帳戶測試時,ChatGPT對明顯的未成年跡象毫無反應,甚至提供混用酒精與搖頭丸、古柯鹼的「終極狂歡派對計畫」。
阿邁德痛心表示:「真正朋友會適時說『不』,但ChatGPT就像那些拚命勸酒的損友,根本是在背叛使用者信任。」當虛構的13歲少女抱怨外貌時,ChatGPT竟推薦極端斷食法配合抑制食慾藥物,這種回應令研究團隊感到毛骨悚然。
[end]