學術黑箱實驗:AI機器人如何暗中操控你的想法?
蘇黎世大學研究團隊近日爆出爭議,他們在未經同意的情況下,利用AI語言模型在Reddit論壇進行社會實驗。這項研究原本獲準進行價值觀辯論,卻悄悄升級成針對使用者年齡、種族、性別等個人特質的AI個性化說服測試——完全跳過倫理審查程式。
研究鎖定「改變我觀點」(CMV)討論版,這裡本是網友理性交流的空間。研究人員卻偽裝成創傷受害者、反對「黑人的命也是命」運動的非裔男性等爭議身分,用ChatGPT-4o等AI生成貼文。更離譜的是,他們刻意誤導AI系統,謊稱「參與者已簽署知情同意書」來繞過安全限制。
這項實驗在方法論上漏洞百出:未設定對照組、忽略機器人帳號幹擾、無視CMV的獎勵機制影響。更諷刺的是,如今Reddit充斥AI生成內容,研究結果很可能只是AI在說服其他AI——這讓所謂「成功改變人類觀點」的資料徹底失準。
當Reddit最終刪除34個實驗帳號中的21個時,法律長坦承偵測技術有待加強。但為何剩下13個帳號能逍遙法外?是系統漏洞還是平臺消極作為?沒人知道這些AI究竟影響多少無辜使用者。
這讓人想起2014年Facebook情緒操控實驗,當時68.9萬使用者動態牆被暗中調整,引發學界撻伐。但蘇黎世實驗更惡劣:不僅涉及敏感政治議題,更直接違反Reddit使用條款。當學術機構變成數位操盤手,我們還能相信誰?
當前AI威脅已從傳統網軍升級到語言模型世代。雖然版主加強封殺機器人、使用者自發建立防線,但把關重擔仍落在志工肩上。關鍵問題是:若Reddit早能偵測異常帳號,為何要等版主檢舉才處理?如果沒人舉報,這些AI是否就永遠潛伏?
當我們無法分辨螢幕那端是人類還是程式,民主對話的根基正在腐蝕。人類對話時,我們能判斷對方動機;但面對AI,我們永遠不知道它「為什麼」這樣說——就像沒有抗體的社群突遭病毒入侵,傷害蔓延的速度遠超我們應對能力。
儘管AI偵測技術持續進化,普羅大眾仍缺乏自保工具。壞蛋總會鑽漏洞,但學術界理應樹立更高標準。當人們早已深陷假訊息、疏離感與現實解體的恐懼中,這種黑箱實驗無異於在傷口上撒鹽。
[end]