AI垃圾內容氾濫!你的社群媒體正在被假照片和影片淹沒
2025年5月,一篇標題為「[我是不是很過分]告訴老公外遇物件的未婚夫他們之間的關係?」的貼文在Reddit上迅速獲得6,200個讚和超過900則留言。這篇爆紅貼文甚至登上Reddit熱門排行榜。但問題是——它極可能是人工智慧(AI)寫的。
這篇貼文充滿AI創作的典型特徵:使用制式用語(如「[我老公的]家人氣炸了」)、過度使用引號,以及刻意設計煽動情緒而非反映真實困境的虛構情節。雖然版主已刪除該文,但Reddit使用者不斷抱怨這類內容越來越多。
這種高互動的AI生成貼文正是所謂的「AI垃圾內容」——從網紅到政治操盤手都在大量生產的低品質AI創作。據估計,LinkedIn上超過一半的英文長文都是AI寫的。LinkedIn產品總監Adam Walkiewicz向《Wired》表示,他們已建立防護機制來過濾低品質和重複內容。
但低品質的AI新聞網站如雨後春筍般出現,Facebook等平臺也被AI圖片淹沒,你可能也在動態看過「蝦子耶穌」這類詭異圖片。AI內容成本極低——北約戰略傳播卓越中心2023年報告顯示,只需10歐元(約8英鎊)就能在各大社群平臺買到數萬次假瀏覽和數百則AI留言。
雖然多數看似無害,但2024年研究發現約四分之一網路流量來自「惡意機器人」。這些散佈假訊息、搶票或竊個資的機器人,偽裝人類的能力正快速進步。簡言之,網路世界正經歷「糞化」過程——科技公司為追求利潤犧牲使用者體驗,AI垃圾內容只是其中一環。
從激怒讀者的Reddit貼文到催淚貓咪影片,這些內容極易吸引注意力,讓創作者和平臺大賺「互動誘餌」財——無論品質多差,只要能騙到按讚、留言和分享就成功。更可怕的是,你根本不用主動搜尋就會看到這些內容。
研究發現,即使使用者未追蹤任何AI垃圾帳號,平臺仍會推薦「包心菜嬰兒」這類互動誘餌。這些常連結劣質資訊或推銷虛構產品的頁面,往往先衝高粉絲數再轉賣帳號牟利。Meta(Facebook母公司)四月宣告要打擊「試圖操弄演演算法衝流量」的垃圾內容,但未特別提及AI生成內容。
這對民主政治可能造成嚴重後果。AI能廉價製造難辨真偽的選舉假訊息。2024美國大選前,研究人員就發現大規模影響行動,專門鼓吹共和黨議題並攻擊政敵。但別以為只有共和黨這麼做——羅格斯大學報告顯示,各陣營都在用機器人推銷屬意候選人。
連研究人員也涉入:蘇黎世大學科學家最近被抓包用AI機器人在Reddit發文,進行「虛假留言能否改變民意」的研究,卻未向版主坦承這些是假帳號。Reddit正考慮對該校採取法律行動,其法務長痛批:「蘇黎世大學團隊的行為在道德和法律層面都極其錯誤。」
包括俄羅斯、中國和伊朗等威權國家,也投入重金用AI影響民主國家選舉。雖然成效尚有爭議(有研究認為俄羅斯干預2016美國大選效果有限,另有研究顯示它準確預測川普得票),但這些行動正變得愈發精密。
即使看似無關政治的AI內容也有隱患。當垃圾內容海量湧現,真實新聞和人創內容將更難被看見。更棘手的是,人類和電腦都越來越難識別惡意AI內容——電腦科學家最近發現約1,100個假X帳號組成機器人網路,相互按讚轉推虛擬貨幣貼文,連他們開發的「機器人檢測器」都無法識破。
若知道訣竅,制式化或明顯造假AI內容尚易辨識,但短內容(如IG留言)和高品質假圖就困難得多。更糟的是,製造AI垃圾的技術正快速進步。
作為長期觀察AI趨勢和假訊息傳播的專家,我們很想提供實用解方或正能量結尾。但現實是,越來越多人直接逃離主流平臺,轉向封閉社群。這可能加劇公共領域碎片化和極化,因為人們往往只加入同溫層。
隨著這種「分眾化」加劇,社群媒體恐淪為機器人自嗨的無腦娛樂場——它們生產內容、互相互動,人類反而淪為觀眾。平臺雖不想失去使用者,但很可能會持續試探大眾對AI垃圾的容忍極限。
潛在技術解方包括透過改進機器人檢測和揭露規範來標記AI內容,但這類警示實際效果尚不明確。某些辨識深偽技術的研究雖有進展,但仍處早期階段。總體而言,我們才剛意識到問題規模有多龐大——更令人憂心的是,如果人類被AI垃圾淹沒,AI也將受害:用「糞化」網路訓練的AI模型,恐怕只會產出更多垃圾。
[end]