當前位置:
首頁 > 科技 > AI決策透明度:我們是否過於依賴未知的技術?

AI決策透明度:我們是否過於依賴未知的技術?

當AI系統在銀行、醫療甚至犯罪偵查等領域做出影響我們日常生活的決策時,我們是否真的瞭解這些技術的運作方式?薩裡大學的一項最新研究指出,AI模型的設計與評估方式亟需改變,強調這些強大演演算法的透明度與可信度至關重要。這項研究已發表於《應用人工智慧》期刊,呼籲各界正視AI決策的潛在風險。

隨著AI逐漸融入高風險領域,其決策可能帶來改變人生的後果,「黑箱」模型的風險也隨之增加。研究揭露了多起AI系統未能充分解釋其決策的案例,導致使用者感到困惑且無助。例如,在醫療領域的誤診與銀行業的錯誤詐騙警示,這些錯誤可能對生命造成嚴重威脅。

研究特別指出,詐騙資料集本身存在不平衡的問題——僅有0.01%的交易屬於詐騙行為——這使得AI在學習詐騙模式時面臨挑戰。儘管AI演演算法能精確識別詐騙交易,但目前仍無法充分解釋其判斷依據。薩裡大學分析學高階講師兼研究共同作者Wolfgang Garn博士表示:「我們必須記住,每個演演算法決策背後都影響著真實的人們。我們的目標是打造不僅智慧,還能提供使用者可信且易懂解釋的AI系統。」

為解決這些關鍵問題,研究提出了一個名為SAGE(設定、受眾、目標與倫理)的綜合框架。SAGE旨在確保AI的解釋不僅易於理解,還與終端使用者的情境相關。透過聚焦目標受眾的特定需求與背景,SAGE框架試圖縮短複雜AI決策過程與依賴這些系統的人類操作者之間的距離。

此外,研究也採用了情境導向設計(SBD)技術,深入探討真實世界中的情境,以瞭解使用者真正需要的AI解釋。這種方法鼓勵研究人員與開發者站在終端使用者的角度思考,確保AI系統以同理心與理解為核心進行設計。

Garn博士進一步強調:「我們也需要指出現有AI模型的不足,這些模型往往缺乏提供有意義解釋所需的語境意識。透過識別並填補這些缺口,我們的研究提倡以使用者為中心的設計原則來推動AI發展的進化。」

研究呼籲AI開發者積極與業界專家及終端使用者互動,營造一個多方利益相關者共同參與的協作環境,以形塑AI的未來。邁向更安全、更可靠的AI世界,始於我們對所創造技術及其對生活影響的深刻理解。面對如此高的風險,我們絕不能忽視改變的呼聲。

研究還強調,AI模型應以文字或圖形形式解釋其輸出,以滿足使用者多樣化的理解需求。這種轉變不僅確保解釋的易於理解,更使其具有可操作性,讓使用者能基於AI的洞察做出明智決策。