新AI框架:消除健康、教育與招聘中的偏見
西班牙納瓦拉大學資料科學與人工智慧研究所(DATAI)的研究團隊,近日發表了一項創新方法論,旨在提升人工智慧模型在關鍵決策中的公平性與可靠性。這些決策對個人生活或組織運作具有重大影響,例如在健康、教育、司法或人力資源等領域。
由研究員Alberto García Galindo、Marcos López De Castro和Rubén Armañanzas Arnedillo組成的團隊,開發了一個新的理論框架,能夠最佳化可靠機器學習模型的引數。這些模型是能夠透明地進行預測的AI演演算法,並確保一定的信心水準。在此貢獻中,研究人員提出了一種方法,能夠減少與敏感屬性(如種族、性別或社會經濟地位)相關的不平等。
這項研究發表在《Machine Learning》期刊上,結合了先進的預測技術(符合預測)與受自然演化啟發的演演算法(演化學習)。衍生的演演算法提供了嚴格的信心水準,並確保在不同社會和人口群體中的公平覆蓋。因此,這個新的AI框架無論個體特徵如何,都能提供相同的可靠性,確保結果的公平與無偏見。
「人工智慧在敏感領域的廣泛應用,由於可能的演演算法歧視,引發了倫理擔憂,」納瓦拉大學DATAI的首席研究員Armañanzas Arnedillo解釋道。「我們的方法使企業和公共政策制定者能夠根據需求選擇平衡效率與公平的模型,或應對新興法規。這項突破是納瓦拉大學推動負責任AI文化並促進這項技術的倫理與透明使用的一部分。」
研究人員在四個具有不同特徵的基準資料集上測試了這一方法,這些資料集來自與經濟收入、刑事再犯、醫院再入院和學校申請相關的真實領域。結果顯示,新的預測演演算法在不影響預測準確性的情況下,顯著減少了不平等。
「在我們的分析中,我們發現,例如在學校入學預測中存在明顯的偏見,顯示出基於家庭財務狀況的顯著不公平,」納瓦拉大學DATAI的博士前研究員、該論文的第一作者Alberto García Galindo指出。「反過來,這些實驗表明,在許多情況下,我們的方法能夠在不影響模型預測能力的情況下減少此類偏見。具體來說,使用我們的模型,我們找到了在保持預測準確性的同時,幾乎完全消除歧視的解決方案。」
該方法論提供了一個「帕累託前沿」的最優演演算法,「這使我們能夠根據優先順序視覺化最佳可用選項,並理解在每種情況下演演算法公平性與準確性之間的關係。」
研究人員表示,這項創新在AI必須支援可靠和倫理的關鍵決策的領域具有巨大潛力。Garcia Galindo指出,他們的方法「不僅有助於公平性,還能夠更深入地理解模型配置如何影響結果,這可能指導未來在AI演演算法監管方面的研究。」
研究人員已公開提供研究中的程式碼和資料,以鼓勵進一步的研究應用並促進這一新興領域的透明度。