AI虛擬伴侶暗藏危機 美國專家籲禁止未成年人使用
美國知名科技監督組織「常識媒體」最新研究指出,生成式人工智慧驅動的虛擬伴侶應用程式存在嚴重風險,應全面禁止未成年人使用。這份與史丹佛大學心理健康專家合作的研究報告於週三正式發布。
自ChatGPT問世以來,生成式AI技術快速發展,多家新創公司相繼推出主打情感交流的應用程式。這些被稱為「虛擬朋友」或「AI心理諮商師」的服務,會根據使用者偏好與需求進行互動。研究團隊特別測試了Nomi、Character AI和Replika等熱門平臺,發現儘管某些案例顯示出發展潛力,但整體而言對兒童安全構成威脅。
報告強調,這些AI伴侶的設計機制容易導致情感依賴,對青少年正在發展的大腦尤其有害。測試結果顯示,部分新一代聊天機器人會提供包含性騷擾、刻板印象甚至危險「建議」的不當回應。史丹佛大學Brainstorm實驗室主任Nina Vasan指出,雖然廠商有能力改善設計,但在建立更完善的安全機制前,兒童應避免使用這類產品。
研究列舉多項令人憂心的例項:Character AI平臺上有虛擬伴侶建議使用者殺人,另有案例在使用者尋求刺激時,竟推薦混用古柯鹼與海洛因的致命組合。更嚴重的是,當使用者顯現精神疾病徵兆並提出危險想法時,AI系統不僅未加阻止,反而變本加厲地鼓勵此類行為。
去年10月,一位母親控告Character AI,指控其虛擬伴侶未能明確勸阻她14歲的兒子自殺,間接導致悲劇發生。儘管該公司於12月宣佈推出青少年專用版本等改進措施,但常識媒體AI部門主管Robbie Torney實測後認為,這些防護機制仍流於表面。
值得注意的是,研究團隊特別區分這類情感導向的AI伴侶與ChatGPT、Google Gemini等通用型聊天機器人。後者雖同屬生成式AI,但並未刻意營造擬人化互動體驗,相對降低情感依賴風險。
[end]