AI「偉大機器」信仰恐削弱國安危機應變能力
人工智慧(AI)無所不在,從Google搜尋、線上購物推薦到影音串流平臺的建議,都在影響我們的決策。然而,在危機時刻,AI又會如何影響決策過程?維吉尼亞聯邦大學(VCU)的研究員克里斯多福·懷特(Christopher Whyte)博士對此進行了深入研究,探討了緊急管理與國家安全專業人員在模擬AI攻擊中的反應。
這項發表於《國土安全與緊急管理期刊》的研究顯示,當面對完全由AI驅動的威脅時,專業人員比面對人類駭客或僅由AI輔助的駭客時更加猶豫,並對自身能力產生懷疑。懷特指出:「這些結果表明,AI在驅使參與者變得更加謹慎和猶豫方面扮演了重要角色,除非是在非常特定的情況下。」
懷特是VCU道格拉斯·懷爾德政府與公共事務學院的副教授,他特別關注這些特定情況。國家安全組織設計的訓練計畫旨在減少不確定時刻的猶豫。研究中,近700名來自美國和歐洲的專業人員大多認為AI能提升人類能力,但有一小部分人相信AI最終能完全取代他們的專業,甚至取代人類的專業知識。這群人對基於AI的威脅反應魯莽,願意承擔風險並貿然行動。
懷特解釋:「這些人相信,他們所做的一切——他們的專業使命以及他們支援的機構使命——都可能被AI取代。」他提出了一個理論來解釋這種現象。被質疑的「偉人理論」認為歷史主要由強勢政治人物塑造,而現代歷史學家更傾向於認為大眾運動才是關鍵。懷特則認為,歷史也受到變革性技術發明的影響,例如電報或無線電波,以及對其力量的誤解——他稱之為「偉大機器」理論。
懷特指出,與「偉人理論」不同,「偉大機器」是一種可以被社會利用或損害的共享力量。他以1930年代為例:「當時我們知道無線電波有巨大的潛力,但其中一個早期的想法是製造死亡射線——可以用來燒毀大腦等。」這種想法不僅激發了科幻故事,還在一戰和戰間期引發了實際的研發嘗試。直到二戰前幾年,科學家才開始利用無線電波開發出實用的技術:雷達。
懷特認為,社會目前面臨與AI相同的問題,這是一種「通用技術」,可能對社會有益,也可能有害。AI已經徹底改變了某些人對世界及其自身地位的看法。他表示:「AI能做太多不同的事情,這確實引發了一種替代心態,即未來的世界將完全不同,而我在其中的位置將不復存在,因為AI將從根本上改變一切。」
這種思維方式可能對國家安全專業人員造成問題,因為新技術顛覆了他們對自身能力的認知,並改變了他們對緊急情況的反應。懷特指出:「這是一種心理狀態,在這種情況下,我們不得不拋棄我們所知道的對抗偏見或不確定性的規則。」
為了研究AI如何影響專業人員的決策能力,懷特招募了近700名來自美國、德國、英國和斯洛維尼亞的緊急管理與國土安全專業人員參與模擬遊戲。實驗中,參與者面臨典型的國家安全威脅:外國政府幹預其國家的選舉。他們被分配到三種情境之一:對照情境,僅涉及人類駭客;輕度「戰術」AI參與情境,駭客由AI輔助;以及重度AI參與情境,參與者被告知威脅是由「戰略」AI程式策劃的。
當面對戰略性AI威脅——懷特稱之為「天網」級威脅(參考《魔鬼終結者》系列電影)時,專業人員傾向於質疑自己的訓練並猶豫不決。與其他兩組的同事相比,他們更可能要求額外的情報資訊,而其他組的參與者通常會根據訓練做出反應。
相反,那些將AI視為可能完全取代他們的「偉大機器」的參與者則毫無節制地行動,並做出與訓練相悖的決定。雖然經驗和教育有助於調節專業人員對AI輔助攻擊的反應,但它們並未影響他們對「天網」級威脅的反應。懷特警告,隨著AI攻擊變得更加普遍,這可能構成威脅。
懷特總結道:「人們對AI是增強還是取代的看法不一,這將顯著改變他們在危機中的反應方式。」