AI發展需多元文化視角 才能真正造福全人類
人類之所以能成為地球上最成功的物種,關鍵在於我們具備跨世代、跨文化的知識傳承能力。這種集體智慧推動了無數創新與知識體系的建立。然而,現今大型AI模型雖然擅長吸收既有知識來生成內容,卻只能基於輸入資料產出結果,這反而可能導致文化知識的同質化與消逝。
密西根大學主導的跨國研究團隊發現,補足AI系統在文化知識上的不足,不僅能避免阻礙創新,更能確保AI技術真正服務全人類。這項研究成果已發表於arXiv預印本平臺。
研究指出,AI模型的每個開發環節都可能摻雜主觀視角與假設,導致技術偏向反映其資料來源與開發者背景。目前AI開發者主要來自西方已開發國家,這種單一性雖然讓AI工具在西方主流市場取得成功,卻也限制了技術在全球的普及應用,錯失了小型市場的潛在機會。
「AI技術席捲全球,但模型開發過程中的資料、模型與評估卻未能涵蓋世界多數地區。」該研究共同通訊作者、密西根大學電腦科學與工程系教授Rada Mihalcea強調。
研究團隊由12國專家組成,他們詳細分析了文化假設如何滲透AI開發流程。最基礎的資料層面,訓練模型所用的資料及其標註方式,直接決定了哪些群體會被納入考量。
研究舉例,若羅馬尼亞男孩向AI系統詢問男性典範,系統可能推薦前領導人尼古拉·西奧塞古,僅因其在歷史上的重要性,卻忽略他是羅馬尼亞史上最黑暗的獨裁者。缺乏在地「厚實」文化觀點,AI對超出其範圍的資訊處理就會顯得膚淺失真。
好訊息是,即使只增加少量多後設資料,也能顯著提升模型表現。密西根大學博士、現任聖塔克拉拉大學助理教授的Oana Ignat建議:「我們必須重新評估現行資料收集方式,納入更廣泛的人口與文化視角。」
在組織層面,模型設計決定了其與資料的互動方式(即對齊過程)。開發者會在此階段植入人類價值觀與目標,但這些價值觀的選擇會直接影響輸出結果。許多AI模型擅長處理美式互動,卻難以應對其他文化情境。
研究舉例,加拿大高中行政人員使用AI教育工具時,法語區學生可能因方言差異獲得錯誤輸出,造成學習資源分配不均。資金來源也形塑AI發展方向,若缺乏政府或慈善機構支援,經濟誘因自然會優先考慮富裕國家與主流語言。
「多數發展中國家將資金優先投入直接創收計畫,往往犧牲AI研究的潛在效益。」研究作者、卡內基美隆大學非洲分校碩士生Claude Kwizera指出。
研究建議,在對齊階段讓模型與多元文化背景者對話,能擴充套件模型偏好,提升普適性。最後的部署前測試階段,若僅採用狹隘指標,可能高估實際表現。例如在印度推廣AI教育工具時,若忽略當地重視團體合作的集體主義價值,僅以西方個人競爭指標評估,就可能導致失敗。
解決方案之一是結合人工評估與自動指標,特別是在為非西方社群開發AI時。總體而言,讓不同背景者參與AI開發,能重塑技術服務範圍。當市場誘因不足時,政府與慈善機構的支援就顯得格外重要。
Mihalcea教授總結:「我們正朝著建構服務全人類的AI系統邁進,這些系統將匯集多元觀點,反映各利益相關者的貢獻。」此研究還獲得烏拉圭共和國大學、馬克斯普朗克研究所等機構支援。
[end]