當前位置:
首頁 > 醫學 > AI醫療決策暗藏偏見:相同症狀竟因「背景不同」給出差異治療

AI醫療決策暗藏偏見:相同症狀竟因「背景不同」給出差異治療

最新研究驚爆,號稱客觀的醫療AI竟會因患者社經背景不同,對相同病症給出天差地遠的治療建議!西奈山伊坎醫學院團隊測試9大語言模型發現,當輸入32種不同背景的虛擬病患資料時,AI對急診分級、檢查專案甚至精神評估的建議出現明顯偏差,總計產生逾170萬筆帶有潛在歧視的醫療決策。

這篇刊登於《自然醫學》的重量級論文直指,高收入患者更容易被建議做高階影像檢查(如CT、MRI),而低收入族群則常被告知「無需進一步檢測」。更令人憂心的是,某些AI模型會單純依據人口統計資料,就過度建議患者接受精神科評估。研究共同資深作者Eyal Klang醫師強調:「我們建立AI驗證框架,就是要揪出這些『看背景開藥單』的荒謬情況。」

主導研究的Mahmud Omar醫師坦言,當AI逐步深入臨床場域,必須建立全球性把關機制。目前團隊正開發「多階段臨床對話模擬系統」,並計劃在真實醫院場域測試AI模型的實際影響力。西奈山醫學院數位健康中心主任Girish Nadkarni更呼籲:「AI醫療革命的前提,是確保每個族群都能獲得公平對待。」

這項研究猶如照妖鏡,映照出當前醫療AI最棘手的倫理難題——當演演算法不自覺複製人類社會的隱性偏見,我們該如何打造真正「醫者仁心」的智慧醫療系統?研究團隊正與國際醫療機構合作,透過專家反饋機制持續最佳化模型,目標是讓AI成為縮小醫療差距的利器,而非擴大不平等幫兇。