當前位置:
首頁 > 科技 > AI自動生成新聞標題的風險:以Apple Intelligence為例

AI自動生成新聞標題的風險:以Apple Intelligence為例

近日,Apple Intelligence因一系列高調的錯誤而暫停了與新聞和娛樂相關的通知功能。其中一個引人注目的例子是,Apple Intelligence向使用者顯示了一則錯誤的新聞標題:「Luigi Mangione自殺」。事實上,被控謀殺UnitedHealthcare執行長Brian Thompson的Mangione並未自殺,BBC也從未報導過此事。這只是AI軟體在自動生成新聞標題時所犯的眾多錯誤之一。

倫敦東北大學資料科學助理教授Anees Baqir指出,這種AI無意中散播的錯誤資訊「對公眾信任構成了重大風險」。他認為,像Apple Intelligence這樣的錯誤可能會「造成混淆」,並可能導致新聞消費者對他們先前信任的媒體品牌產生懷疑。「想像一下,如果這些錯誤資訊來自通常被視為可靠的新聞來源,這將對人們的觀點產生什麼影響,」Baqir說。「在我看來,這可能非常危險。」

Apple Intelligence的這一事件在英國引發了更廣泛的辯論:公眾可用的主流生成式AI軟體是否能夠準確地總結和理解新聞文章?BBC News執行長Deborah Turness表示,雖然AI帶來了「無盡的機會」,但開發這些工具的公司目前正在「玩火」。

倫敦東北大學的資料科學家Mariana Macedo解釋了為什麼像Apple Intelligence這樣的生成式AI在處理新聞故事時可能並不總是正確。她指出,開發生成式AI的「過程並非確定性的,因此具有一定的隨機性」,這意味著結果可能會出現不可預測的情況。「這些內容可能以你無法預測的方式被寫出來,」她解釋道。「這就像養育孩子一樣。你教育孩子時,會用價值觀、規則和指示來引導他們,然後告訴他們:『現在去過你的生活吧。』孩子或多或少知道什麼是對的或錯的,但孩子並不知道一切。孩子沒有足夠的經驗或知識來完美地反應和創造新的行動。AI和演算法也是如此。」

Macedo進一步指出,新聞與AI學習的問題在於,新聞大多是關於剛剛發生的事情——幾乎沒有過去的背景來幫助軟體理解它被要求總結的報導。「當你談論新聞時,你談論的是新事物,」她說。「你不是在談論我們已經知道很長時間的事情。AI非常擅長處理社會中已經確立的事情。當涉及到衝突或新事物時,AI不知道該怎麼辦。因此,每當AI沒有接受足夠的資訊訓練時,它就會犯更多的錯誤。」

為了確保準確性,Macedo認為開發人員需要在資訊發布之前「找到一種自動雙重檢查資訊的方法」。她還建議,讓AI透過訓練來學習新聞文章,可能會提高其準確性。目前,BBC禁止開發者使用其內容來訓練生成式AI模型。但其他英國新聞機構已經開始合作,例如《金融時報》與OpenAI的合作協議,允許ChatGPT使用者檢視精選的歸因摘要、引用和連結。

Baqir建議,科技公司、媒體組織和通訊監管機構的合作可能是應對AI新聞錯誤資訊問題的最佳方式。「我認為他們都需要團結起來,」他說。「只有這樣,我們才能找到一種方法來減輕這些影響。不可能有一個單一的解決方案。」