AI偏見:從招聘到醫療,如何影響一切?
像ChatGPT、DeepSeek、谷歌的Gemini以及微軟的Copilot等生成式AI工具,正以飛快的速度改變著各個產業。然而,隨著這些大型語言模型成本降低,且越來越廣泛地用於關鍵決策,其內建的偏見可能會扭曲結果,並削弱公眾信任。
奧克拉荷馬大學普賴斯商學院的副教授納文・庫馬爾(Naveen Kumar)共同撰寫了一項研究,強調迫切需要透過開發和應用符合倫理、可解釋的AI來解決偏見問題。這包括確保公平性和透明度,以及減少大型語言模型(LLM)應用中的刻板印象和歧視的方法與政策。
庫馬爾表示:「隨著像DeepSeek和阿里巴巴等國際業者推出免費或價格低廉許多的平臺,全球將會掀起一場AI價格戰。當價格成為首要考量時,是否還會關注偏見相關的倫理問題和法規呢?或者,既然現在有國際企業參與其中,是否會推動更快速的法規制定?我們希望是後者,但還得拭目以待。」
根據該研究引用的調查,近三分之一的受訪者認為,由於有偏見的AI演演算法,他們失去了諸如財務或工作機會等機遇。庫馬爾指出,AI系統一直專注於消除明顯的偏見,但隱性偏見仍然存在。隨著這些大型語言模型變得更聰明,檢測隱性偏見將更具挑戰性。這就是為什麼倫理政策如此重要的原因。
他們的研究發表在《資訊管理》(Information Management)期刊上。庫馬爾說:「隨著這些大型語言模型在社會中扮演越來越重要的角色,特別是在金融、行銷、人際關係甚至醫療保健領域,它們必須符合人類的偏好。否則,它們可能會導致有偏見的結果和不公平的決策。醫療保健中的偏見模型可能導致患者護理的不平等;有偏見的招聘演演算法可能會偏袒某一性別或種族;或者有偏見的廣告模型可能會加劇刻板印象。」
在可解釋的AI和倫理政策逐步建立的同時,庫馬爾和他的合作者呼籲學者們開發積極主動的技術和組織解決方案,以監測和緩解大型語言模型的偏見。他們還建議採用平衡的方法,以確保AI應用保持高效、公平和透明。
庫馬爾表示:「這個產業發展非常迅速,因此目標不同的利益相關者之間將會存在很多矛盾。我們必須平衡每個參與者——開發者、企業主管、倫理學家、監管者——的關切,以適當地解決這些大型語言模型中的偏見問題。在不同的商業領域和不同的地區法規之間找到最佳平衡點,將是成功的關鍵。」
庫馬爾是奧克拉荷馬大學管理資訊系統的副教授,他與華盛頓大學博塞爾分校的魏霞華(Xiahua Wei)、佐治亞理工學院和香港浸會大學的張涵(Han Zhang)共同撰寫了這篇論文。