AI幻覺:當人工智慧開始「說謊」
當人們看到不存在的東西時,我們稱之為「幻覺」。這種現象發生在感官知覺與外界刺激不符的情況下。有趣的是,依賴人工智慧的技術也可能產生類似的幻覺。當演演算法系統生成看似合理但實際上不準確或誤導性的資訊時,電腦科學家稱之為「AI幻覺」。研究人員已在多種AI系統中發現這種現象,從ChatGPT等聊天機器人到Dall-E等影象生成器,甚至是自動駕駛車輛。
作為研究AI語音辨識系統幻覺的資訊科學研究者,我們發現AI幻覺在日常生活中可能帶來各種風險。有些風險看似微不足道,例如聊天機器人回答錯誤,可能導致使用者獲得錯誤資訊。但在某些情況下,後果可能相當嚴重。例如,在法庭上使用AI軟體做出量刑決定,或健康保險公司使用演演算法判斷患者的保險資格時,AI幻覺可能改變人生,甚至危及生命。自動駕駛車輛使用AI來偵測障礙物、其他車輛和行人,任何幻覺都可能造成致命後果。
AI幻覺的表現形式因系統型別而異。以大型語言模型(AI聊天機器人的基礎技術)為例,幻覺表現為聽起來令人信服但實際上錯誤、虛構或無關的資訊。AI聊天機器人可能虛構一篇不存在的科學文獻,或提供錯誤的歷史事實,卻讓這些資訊聽起來可信。例如,2023年一起紐約法院案件中,一位律師提交了由ChatGPT協助撰寫的法律檔案,法官發現其中引用的案例竟是ChatGPT虛構的。如果人類無法識別這些幻覺,可能導致不同的法庭判決結果。
對於能夠識別影象中物件的AI工具,幻覺發生在AI生成的描述與實際影象不符時。例如,當系統被要求列出影象中的物件時,即使影象只顯示一位女性在打電話,AI可能生成「一位女性坐在長椅上打電話」的描述。在需要精確性的情境下,這種不準確的資訊可能導致嚴重後果。
工程師透過收集大量資料並將其輸入計算系統來建立AI系統,系統會根據資料中的模式發展出回答問題或執行任務的方法。然而,大型語言模型可能以多種方式產生幻覺。例如,如果系統被訓練識別不同品種的狗,它可能將藍莓馬芬誤認為吉娃娃。當系統不理解問題或提供的資訊時,它可能根據訓練資料中的類似情境填補空白,或基於偏見或不完整的訓練資料做出錯誤猜測。
值得注意的是,AI幻覺與刻意創造的AI輸出有本質區別。當要求AI系統進行創造性工作(如寫故事或生成藝術影象)時,其新穎的輸出是預期且受歡迎的。然而,當AI系統被要求提供事實資訊或執行特定任務時,若生成錯誤或誤導性內容並將其呈現為準確資訊,這就是幻覺。關鍵區別在於情境和目的:創造性適合藝術任務,而幻覺在需要準確性和可靠性時會造成問題。
為解決這些問題,企業建議使用高品質的訓練資料,並限制AI回應遵循特定準則。然而,這些問題在流行的AI工具中可能仍然存在。將藍莓馬芬誤認為吉娃娃的輸出看似無害,但考慮到使用影象辨識系統的各種技術,其影響可能相當嚴重。例如,無法正確識別物件的自動駕駛車輛可能導致致命交通事故,而誤識別目標的自動軍事無人機可能危及平民生命。
對於提供自動語音辨識的AI工具,幻覺表現為包含從未說過的字詞或片語的AI轉錄。這種情況更可能發生在嘈雜環境中,AI系統可能試圖解讀背景噪音(如經過的卡車或哭泣的嬰兒)而新增新的或無關的字詞。隨著這些系統在醫療、社會服務和法律領域的應用日益普遍,自動語音辨識中的幻覺可能導致不準確的臨床或法律結果,損害患者、刑事被告或需要社會支援的家庭。
儘管AI公司努力減輕幻覺,使用者仍需保持警惕,特別是在需要精確性和準確性的情境下。與可信來源核對AI生成的資訊,必要時諮詢專家,並認識這些工具的侷限性,是降低風險的重要步驟。