AI教父示警科技失控!推「科學家AI」打造安全防線
科技
06-09
聯邦調查局(FBI)本週揭露,加州某生育診所的爆炸案嫌犯疑似透過人工智慧取得炸彈製作指南。雖然未透露具體AI系統名稱,但這起事件再度凸顯AI安全性的迫切需求。
當前AI發展正處於「蠻荒西部」階段,各大科技公司競相開發速度更快、娛樂性更高的系統。在這場激烈競爭中,安全性往往成為被犧牲的一環。值此之際,有「深度學習三巨頭」之稱的加拿大蒙特婁大學教授Yoshua Bengio,宣佈成立非營利組織LawZero,致力開發更安全的「科學家AI」模型。
這位2018年圖靈獎得主提出的解決方案有何特別?真能防範AI帶來的社會危害嗎?
根據今年初發布的預印本論文,「科學家AI」有兩大創新:首先能自我評估答案可信度,避免現行AI過度自信卻出錯的問題;其次具備解釋決策過程的能力,這正是許多現代AI為追求速度而捨棄的重要功能。
更值得關注的是,Bengio團隊為系統加入「世界模型」架構。就像人類基於對物理世界的理解來行動,AI也需要這種認知框架。現行AI常出現「畫不好手掌」或「下棋犯規」等荒謬錯誤,正是缺乏世界模型的明顯例證。
不過這項計畫面臨重大挑戰。相較美國政府5000億美元的AI發展預算,LawZero僅獲3000萬美元資金。更棘手的是,如同所有AI專案,「科學家AI」需要海量訓練資料,而這些資源多掌握在科技巨頭手中。
即使技術突破所有難關,如何實際約束有害AI系統仍是未解難題。但若能成功,不僅能為AI安全樹立新標準,更可能避免重蹈社群媒體放任發展的覆轍,阻止有心人士利用AI獲取危險資訊。
在Bengio等頂尖研究員帶領下,這項計畫或許能開啟AI真正造福人類的新篇章,促使開發者與政策制定者將安全性列為首要考量。
[end]