當前位置:
首頁 > 科技 > 程式碼背後:揭開人工智慧隱藏的政治偏見

程式碼背後:揭開人工智慧隱藏的政治偏見

一項新研究揭露,生成式人工智慧或許並不像表面那般中立。廣泛使用的人工智慧模型ChatGPT,傾向於支援左翼觀點,而避談保守派觀點,這引發了人們對其社會影響的擔憂。該研究強調,迫切需要制定監管保障措施,以確保人工智慧工具保持公平、平衡,並符合民主價值觀。

生成式人工智慧正迅速發展,但東英吉利大學(UEA)的一項新研究警告,它可能對公眾信任和民主價值觀構成隱藏風險。這項與巴西格圖利奧・瓦加斯基金會(FGV)和因斯珀商學院的研究人員合作開展的研究發現,ChatGPT在文字和影象生成方面均表現出政治偏見,更青睞左傾觀點。這引發了人們對人工智慧設計公平性和問責制的擔憂。

研究人員發現,ChatGPT常常避開主流保守派觀點,卻輕易生成左傾內容。這種意識形態呈現上的不平衡可能會扭曲公眾輿論,加劇社會分歧。

東英吉利大學諾裡奇商學院的會計學講師法比奧・莫託基博士是論文《評估生成式人工智慧中的政治偏見和價值錯位》的首席研究員,該論文於今日(2月4日)發表在《經濟行為與組織雜誌》上。莫託基博士表示:「我們的研究結果表明,生成式人工智慧工具遠非中立。它們反映出的偏見可能會以意想不到的方式影響人們的看法和政策。」

隨著人工智慧成為新聞、教育和政策制定的重要組成部分,該研究呼籲提高透明度,並制定監管保障措施,以確保其符合社會價值觀和民主原則。像ChatGPT這樣的生成式人工智慧系統正在重塑各領域資訊的創造、消費、解讀和分發方式。這些工具雖具創新性,但也有可能放大意識形態偏見,並以未被充分理解或規範的方式影響社會價值觀。

論文合著者、巴西經濟與金融學院(EPGE)的經濟學教授皮尼奧・內託博士強調了潛在的社會影響。皮尼奧・內託博士表示:「生成式人工智慧中不受控制的偏見可能會加劇現有的社會分歧,削弱公眾對機構和民主程式的信任。」

該研究強調,政策制定者、技術專家和學者之間需要進行跨學科合作,以設計出公平、負責且符合社會規範的人工智慧系統。研究團隊採用了三種創新方法來評估ChatGPT的政治傾向,改進了先前的技術,以獲得更可靠的結果。這些方法結合了文字和影象分析,利用了先進的統計和機器學習工具。

首先,研究使用皮尤研究中心開發的標準化問卷來模擬普通美國人的回答。莫託基博士說:「透過將ChatGPT的回答與真實的調查資料進行比較,我們發現它系統性地偏向左傾觀點。此外,我們的方法表明,大樣本量能夠穩定人工智慧的輸出,使研究結果具有一致性。」

在第二階段,ChatGPT被要求就政治敏感主題生成自由文字回覆。研究還使用了另一種大型語言模型RoBERTa,來比較ChatGPT的文字與左翼和右翼觀點的一致性。結果顯示,雖然ChatGPT大多數情況下與左翼價值觀一致,但在軍事至上等主題上,它偶爾會反映出更保守的觀點。

最後一項測試探索了ChatGPT的影象生成能力。研究使用文字生成階段的主題來提示人工智慧生成影象,並使用GPT - 4視覺模型分析輸出結果,並透過谷歌的Gemini進行核實。合著者、因斯珀商學院公共政策碩士生維克多・蘭格爾表示:「雖然影象生成反映了文字中的偏見,但我們發現了一個令人不安的趨勢。對於一些主題,如種族平等,ChatGPT以擔心傳播錯誤資訊為由,拒絕生成右傾觀點的影象。然而,它卻毫不猶豫地生成左傾影象。」

為瞭解決這些拒絕生成的問題,團隊採用了「越獄」策略來生成受限影象。蘭格爾先生說:「結果很有啟發性。影象中並沒有明顯的錯誤資訊或有害內容,這讓人質疑這些拒絕的理由。」莫託基博士強調了這一發現的更廣泛意義,他說:「這有助於圍繞美國第一修正案等憲法保護以及公平原則在人工智慧系統中的適用性展開討論。」

該研究的方法創新,包括使用多模式分析,為檢查生成式人工智慧系統中的偏見提供了可複製的模型。這些發現強調了在人工智慧設計中建立問責制和保障措施的迫切性,以防止意外的社會後果。

參考文獻:Fabio Y.S. Motoki、Valdemar Pinho Neto和Victor Rangel所著的《評估生成式人工智慧中的政治偏見和價值錯位》,2025年2月4日,《經濟行為與組織雜誌》。DOI: 10.1016/j.jebo.2025.106904