破除AI安全迷思:正视科技威胁刻不容缓
沒有人想談論人工智慧(AI)安全問題,大家反而執著於五個自我安慰的迷思。本週,法國在巴黎主辦了一場AI行動高峰會,討論諸如人們如何信任AI技術,以及全球該如何管理這些技術等迫在眉睫的問題。包括法國、中國、印度、日本、澳洲和加拿大在內的60個國家,簽署了一份關於「包容且永續」AI的宣言。值得注意的是,英國和美國拒絕簽署,英國表示該聲明未能充分解決全球治理和國家安全問題,美國副總統JD Vance則批評歐洲對AI「過度管制」。
批評者認為,這場高峰會將安全顧慮擱置一旁,轉而討論商業機會。上週,我參加了由國際安全與倫理AI協會在巴黎舉辦的首屆AI安全會議,在那裡我聆聽了AI界大咖傑弗里・辛頓、揚・勒丘恩、安卡・德拉甘、瑪格麗特・米切爾、馬克斯・泰格馬克、凱特・克勞福德、約瑟夫・斯蒂格利茨和斯圖爾特・羅素等人的演講。聆聽過程中,我意識到政府和公眾對AI安全顧慮的忽視,源於幾個自我安慰的迷思,而這些迷思即便曾經合理,如今也已站不住腳。
對AI最嚴重的擔憂,即它可能對人類生存構成威脅,通常涉及所謂的通用人工智慧(AGI)。理論上,AGI將比現有系統先進得多。AGI系統能夠學習、進化並修改自身能力,它們能夠承擔超出原設計範圍的任務,最終超越人類智慧。然而,AGI目前尚未出現,也不確定是否會被研發出來。批評者常將AGI視為僅存在於科幻電影中的事物,因此,一些人不把這些最關鍵的風險當回事,另一些人則認為它們不切實際。
但許多專家認為,我們已接近實現AGI。開發者表示,他們首次明確了實現這一目標所需的技術任務。AGI不會永遠只存在於科幻作品中,它最終會來到我們身邊,而且可能比我們預想的更快。
由於最嚴重的風險常與AGI相關,人們常錯誤地認為,不必過於擔心當下「狹義」AI相關的風險。然而,現有的AI技術已經對人類和社會造成了重大危害,包括通過明顯途徑,如致命的道路和航空事故、戰爭、網路事件,甚至鼓勵自殺。AI系統還以更隱蔽的方式造成危害,如干預選舉、取代人力工作、決策偏見、深度偽造以及傳播錯誤和虛假資訊。根據麻省理工學院的AI事件追蹤器,現有AI技術造成的危害正在增加,因此迫切需要管理現有AI技術以及未來可能出現的技術。
第三個迷思是,現有的AI技術其實沒那麼聰明,因此易於控制。這種觀點在討論ChatGPT、Claude和Gemini等聊天機器人背後的大型語言模型(LLM)時最為常見。關於如何準確定義智慧,以及AI技術是否真的具有智慧,存在大量爭論,但從實際角度看,這些都是分散注意力的次要問題。重要的是,AI系統會以意想不到的方式運作,並產生不可預見的風險。例如,現有的AI技術被發現會做出大多數人認為非智慧實體不會有的行為,包括欺騙、勾結、黑客攻擊,甚至為了自保而採取行動。無論這些行為是否證明其具有智慧,它們都可能對人類造成危害。關鍵是我們要建立控制措施,防止有害行為發生,「AI很笨」的想法對任何人都沒有幫助。
許多關注AI安全的人都呼籲制定AI安全法規。去年,歐盟的AI法案作為全球首部AI法律,受到廣泛讚譽。它基於已確立的AI安全原則,為AI安全和風險提供指導。雖然法規至關重要,但要確保AI安全且有益,僅靠法規是不夠的。法規只是確保AI安全所需的複雜控制網絡的一部分。這些控制措施還包括行為準則、標準、研究、教育和培訓、績效衡量和評估、程序、安全和隱私控制、事件報告和學習系統等等。歐盟的AI法案邁出了正確的一步,但要開發出確保其有效運作的適當機制,仍有大量工作要做。
第五個,或許也是最根深蒂固的迷思,圍繞著AI技術本身會產生風險的觀念。AI技術是更廣泛的「社會技術」系統的一部分,該系統還有許多其他重要組成部分:人類、其他技術、數據、人工製品、組織、程序等等。安全性取決於所有這些組成部分的行為及其相互作用。這種「系統思維」哲學要求我們以不同的方式看待AI安全。我們不能只控制系統中個別組成部分的行為,而需要管理它們之間的相互作用和突現屬性。隨著自主性更強、能執行更多任務的AI代理不斷增加,不同AI技術之間的相互作用將變得越來越重要。目前,很少有人研究這些相互作用,以及在部署AI技術的更廣泛社會技術系統中可能產生的風險。AI安全控制措施需要針對系統內的所有相互作用,而不僅僅是AI技術本身。
可以說,AI安全是我們社會面臨的最重要挑戰之一。要解決這個問題,我們需要對真正的風險有共同的認識。