當前位置:
首頁 > 科技 > 醫療AI新突破!密西根大學開發「可解釋人工智慧」框架,決策過程一目了然

醫療AI新突破!密西根大學開發「可解釋人工智慧」框架,決策過程一目了然

在醫療診斷等關鍵領域,AI系統的決策透明度與準確性同等重要。密西根大學研究團隊最新開發的「可解釋人工智慧」(Explainable AI)技術,能在不犧牲準確度的情況下,讓影像分類決策過程變得透明易懂。

「當AI將腫瘤標記為惡性卻無法說明判斷依據時,醫生既無法驗證結果,也難以向病患解釋。」研究資深作者、工業與作業工程學系助理教授Salar Fattahi強調,「在高風險的醫療場域,我們需要既準確又透明的AI系統。」這項研究成果將於7月17日在溫哥華舉行的國際機器學習會議(ICML)發表。

傳統AI模型透過「概念嵌入」(concept embeddings)將數值向量與特定概念連結,例如在X光片中辨識「骨折」、「關節炎」或「健康骨骼」。現有的可解釋AI方法多數是在模型建成後才追加解釋功能,這種作法不僅無法真正解決解釋性問題,更將概念嵌入視為固定數值,忽略其中可能存在的錯誤。

研究團隊提出的「約束概念精煉」(Constrained Concept Refinement, CCR)框架有兩大創新:首先將可解釋性直接嵌入模型架構進行優化;其次允許概念嵌入根據任務需求動態調整。使用者可透過調參數來平衡解釋性與準確度,例如自動修正從CLIP模型獲得的「健康骨骼」等可能存在誤差的概念嵌入。

「最令人驚喜的是,解釋性與準確度不必二選一。」Fattahi教授表示。實驗顯示,CCR在CIFAR10/100等三個影像分類基準測試中,不僅保持解釋性,準確度超越現有方法(CLIP-IP-OMP和label-free CBM),運算時間更縮短十倍。

該研究第一作者、密西根大學博士Geyu Liang指出:「雖然目前聚焦影像分類,但低實施成本與易調校特性,讓CCR在貸款審核等金融領域也具應用潛力。」當AI決定貸款資格時,可解釋性能確保決策基於收入、信用紀錄等具體因素,而非帶有偏見的無關資訊。

「這只是開始,」Fattahi教授興奮地說,「我們證明了解釋性可以高效、低成本地融入現代AI系統。」這項突破性研究已發表於arXiv預印本伺服器,為AI透明化樹立新標竿。

[end]