AI在新聞業的應用:公眾信任危機與倫理挑戰
一項最新產業報告指出,隨著生成式人工智慧(AI)在新聞業的應用日益普及,無論是新聞受眾還是記者本身,都對其潛在影響感到愈發憂心。這份由RMIT大學主導的《生成式AI與新聞業》報告,彙整了過去三年的研究成果,並於今日在ARC自動化決策與社會卓越中心正式發布。
報告的主要作者、來自澳洲墨爾本RMIT大學的T.J. Thomson博士表示,AI生成或編輯的內容可能誤導或欺騙受眾,這是最令人擔憂的問題。「無論是記者還是新聞受眾,都將AI用於散播誤導性或欺騙性內容列為首要挑戰,」他指出。「我們發現,記者往往缺乏辨識AI生成或編輯內容的能力,這使得他們可能在不知情的情況下,將這類內容傳播給受眾。」
這種情況部分源於多數新聞編輯室缺乏系統化的流程來審核使用者生成或社群貢獻的視覺素材。受訪的記者大多並未意識到,AI已逐漸且隱密地整合到相機、影像或影片編輯與處理軟體中。「有時,AI甚至在新聞機構或記者不知情的情況下被使用,」Thomson補充道。
雖然僅有四分之一的新聞受眾認為自己曾在新聞中接觸過生成式AI,但約有一半的人表示不確定或懷疑自己曾遇過。「這顯示新聞機構在使用生成式AI時可能缺乏透明度,或者新聞機構與受眾之間存在信任危機,」Thomson解釋道。
研究發現,當受眾自身曾使用AI進行類似用途(例如模糊影像的某些部分)時,他們對記者使用AI的接受度較高。「受訪者提到,他們在視訊會議應用程式或使用智慧型手機的人像模式時,也曾使用過類似工具,」Thomson說。「我們也發現,當記者使用AI為媒體新增關鍵字時,受眾的接受度較高,因為他們自身曾在文書處理軟體中體驗過AI描述影像的功能。」
Thomson指出,無論是新聞受眾還是記者,都對新聞機構目前及未來如何使用生成式AI感到擔憂。「多數受訪者對使用AI製作資訊圖表的圖示感到自在,但對於由AI虛擬主播播報新聞的想法則相當排斥,」他舉例說明。
近年來,AI技術的快速發展被視為新聞業的機遇,同時也是一大威脅。例如,蘋果公司最近暫停了其自動生成的新聞通知功能,因為該功能曾對知名人士發布不實訊息,包括虛假的死亡和逮捕報導,並將這些錯誤歸咎於BBC新聞和《紐約時報》等知名媒體。
儘管AI能夠執行如照片分類和生成標題等任務,但它也存在眾所周知的偏見,例如對女性和有色人種的歧視。研究還發現了一些較少被提及的偏見,例如偏好都市環境而非非都市環境、較少展示女性擔任專業角色,以及忽略身障人士的存在。「這些偏見源自於訓練資料中的人類偏見,以及開發AI演演算法和模型者的有意或無意偏見,」Thomson解釋道。
然而,並非所有AI工具都相同。研究發現,那些能夠解釋決策過程、公開原始資料,並確保輸出透明度的工具,對記者而言風險較低,而缺乏這些功能的工具則更具風險。
記者和受眾也擔心生成式AI會取代新聞編輯室的人力,導致業內工作機會和技能減少。「這些擔憂反映了科技長期以來對新聞生產中人力資源的影響,」Thomson總結道。
這份報告專為媒體產業設計,列舉了數十種記者與新聞機構使用生成式AI的方式,並總結了新聞受眾對每種應用的接受程度。報告彙整了研究團隊的多項研究成果,包括最新發表於《新聞實踐》期刊的研究。