AI聊天機器人變「假訊息製造機」?印度巴鐵衝突事件暴露嚴重缺陷
在印度與巴基斯坦爆發為期四天的軍事衝突期間,社群平臺上假訊息滿天飛,許多網友轉向AI聊天機器人求證,沒想到卻獲得更多錯誤資訊。這個現象凸顯出AI作為事實查核工具的不可靠性。
隨著科技平臺陸續裁減人工事實查核員,越來越多人開始仰賴AI聊天機器人來獲取資訊,包括xAI的Grok、OpenAI的ChatGPT和Google的Gemini等。在馬斯克的X平臺上,「嘿@Grok,這是真的嗎?」已成為常見提問,反映民眾渴望透過社群媒體即時查證的趨勢。
然而,這些AI的回應往往充斥著錯誤資訊。Grok最近因在無關查詢中插入極右派陰謀論「白人滅絕論」而備受質疑,更將蘇丹喀土穆機場的舊影片誤認為是印度與巴基斯坦衝突中,巴基斯坦努爾汗空軍基地遭導彈襲擊的畫面。它還將尼泊爾一棟建築物失火的無關影片,錯誤標註為「很可能」是巴基斯坦對印度空襲的軍事回應。
「當X和其他科技巨頭削減對人工事實查核的投資時,民眾對Grok的依賴卻與日俱增,」反假訊息組織NewsGuard研究員麥肯錫·薩德吉告訴法新社。她警告:「我們的研究一再發現,AI聊天機器人並非可靠的新聞資訊來源,特別是在突發新聞方面。」
NewsGuard研究顯示,10個主流聊天機器人都容易重複錯誤資訊,包括俄羅斯的假訊息敘事,以及與近期澳洲選舉相關的不實或誤導性說法。哥倫比亞大學數位新聞研究中心近期研究8個AI搜尋工具後發現,聊天機器人「通常不擅長拒絕回答它們無法準確回應的問題,反而會提供錯誤或臆測的答案」。
當法新社烏拉圭事實查核團隊詢問Gemini一張AI生成女性照片時,它不僅確認其真實性,還捏造了該女子身分和拍攝地點的細節。Grok最近更將一段號稱在亞馬遜河拍攝的巨蟒影片標記為「真實」,甚至引用聽起來可信的科學考察來佐證其錯誤說法。實際上,法新社拉丁美洲團隊查證發現該影片是AI生成,但許多網友卻引用Grok的評估作為影片真實的證據。
這些發現引發憂慮,因為調查顯示網路使用者正逐漸從傳統搜尋引擎轉向AI聊天機器人來收集和驗證資訊。與此同時,Meta今年初宣佈終止在美國的第三方事實查核計畫,改採X平臺推廣的「社群筆記」模式,將查核假訊息的工作交給一般使用者。但研究人員多次質疑「社群筆記」打擊假訊息的效果。
在政治極化的環境下,人工事實查核長期以來都是爭議焦點,特別是在美國,保守派人士聲稱這壓制言論自由並審查右翼內容,專業查核員則強烈反駁此說法。法新社目前以26種語言參與Facebook的事實查核計畫,範圍涵蓋亞洲、拉丁美洲和歐盟。
AI聊天機器人的品質和準確性可能因其訓練和程式設計方式而異,引發外界擔憂其輸出可能受到政治影響或控制。馬斯克的xAI最近將Grok生成涉及南非「白人滅絕」的未經請求貼文歸咎於「未經授權的修改」。當AI專家大衛·卡斯威爾詢問Grok誰可能修改了其系統提示時,聊天機器人竟指稱馬斯克是「最有可能」的幕後黑手。
國際事實查核網路主任安琪·霍蘭告訴法新社:「我們已經看到AI助理如何在人為更改指令後,捏造結果或給出偏頗答案。我特別擔心Grok在收到提供預先授權答案的指令後,對高度敏感問題的錯誤處理方式。」
[end]