當前位置:
首頁 > 科技 > 專家警告:AI 若無「鐵一般保證」,恐釀災難

專家警告:AI 若無「鐵一般保證」,恐釀災難

一位知名專家向法新社表示,人工智慧(AI)系統必須有「鐵一般的保證」,以避免對人類造成大規模傷害,尤其是在其被整合到武器中的可能性日益增加之際。

柏克萊大學電腦科學教授、國際安全與倫理人工智慧協會(IASEAI)聯合主任斯圖爾特・羅素(Stuart Russell),將於週四前往巴黎參加科學討論,此次討論是為 2 月 10 日至 11 日舉行的全球人工智慧技術峰會做準備。

他認為這很不幸。谷歌先前制定反對在武器中使用 AI 的政策,正是因為員工反抗……谷歌員工擔心他們的工作成果不僅會用於偵察,還會用於殺人。如今,谷歌表示願意忽視員工的意見,以及絕大多數反對在武器中使用 AI 的公眾意見。

與消費市場和商業市場相比,AI 的軍事市場規模極小,所以這並非真正為了賺錢的機會,而是為了提升其與美國政府談判的地位。這項政策的改變恰逢新政府上臺,新政府取消了拜登政府對 AI 的所有規範,並大力強調將 AI 用於軍事實力提升,這並非巧合。

小型自主武器系統最危險,因為它們體積小、價格便宜,像恐怖組織等非國家團體可以大量購買,用於進行大規模屠殺。這些武器可能會以更危險、更有害的方式被使用,例如「殺死符合以下描述的任何人」,描述可以是年齡、性別、族群、宗教信仰,甚至是特定個人。

據最新統計,約有 75 個國家已經研發或正在使用遙控武器,而且大多數國家正在考慮如何將其轉換為完全自主的武器。烏克蘭衝突加速了這一程序,迫使這些武器系統迅速發展,其他國家也都在關注。很有可能烏克蘭之後的下一場重大衝突將大量使用目前不受規範的自主武器,我們難以想像這會對平民造成怎樣的破壞和可怕影響。

另一方面,已有 100 多個國家表明反對自主武器。他認為很有可能在聯合國大會上獲得必要多數,透過一項呼籲禁止自主武器的決議。

比人類聰明得多、對世界影響力也大得多的 AI 系統,可能導致人類滅絕。政府必須要求以可檢查、可仔細核查的統計證據或數學證明的形式,提供鐵一般的保證。否則,無異於自招災難。