可解釋AI助航運避險 提升信任度降低人為失誤
科技
04-16
113年前,鐵達尼號因撞上冰山而沉沒,這場發生在4月14日至15日的悲劇,很可能是人為判斷失誤導致船隻誤入危險海域。時至今日,基於人工智慧的自主導航系統雖能協助船隻避免類似意外,但這些系統能否向船長清楚解釋其決策邏輯?這正是「可解釋人工智慧」的核心概念——透過提升系統透明度來增進人類對自主系統的信任。
大阪都市大學工學研究科的團隊最新研發出一套專為航運設計的可解釋AI模型,能精確量化特定海域內所有船隻的碰撞風險。這項發表於《應用海洋研究》期刊的成果特別重要,因為現今主要海運航線已變得日益擁擠。由研究生吉岡仁與橋本博忠教授共同開發的系統,不僅能做出導航決策,更能透過風險數值量化來闡明其判斷依據與行動意圖。
橋本教授強調:「當AI導航系統能清楚解釋其判斷基礎與行為意圖時,我們才能真正獲得航海從業人員的信任。這項研究對於實現無人船舶的願景具有實質貢獻。」這套系統將改變傳統航運模式,讓高科技與人類專業得以完美結合。
[end]