AI武器失控風險:科技發展的雙刃劍
人工智慧(AI)的發展日新月異,但它的「智慧」有時並不如我們想像的那般可靠。研究人員曾訓練一個演演算法來辨識皮膚癌,起初以為成功,卻發現該演演算法竟是依賴圖片中的尺規來做出判斷。原來,訓練資料集中的影像多為病理學家用尺規測量惡性病變的照片,導致演演算法誤將所有出現尺規的影像都判定為惡性,即使組織本身是良性的。這並非單純的AI錯誤,而是其「思考方式」與人類截然不同,沒有人類病理學家會得出如此荒謬的結論。
類似的「推理缺陷」層出不窮,例如人力資源演演算法因資料集偏袒男性而傾向錄取男性,或是醫療演演算法加劇種族歧視。這些問題曝光後,研究人員正急於修正。然而,AI的應用早已超出實驗室,進入更危險的領域。近期,Google宣佈解除開發AI武器的禁令,這可能涵蓋AI用於武器研發、監控,甚至戰場上自主部署的武器系統。此決策正值母公司Alphabet股價下跌6%之際,引發外界質疑。
Google並非首次涉足爭議領域。它曾與美國國防部合作「Maven計畫」,利用AI技術進行無人機的目標識別。2018年合約曝光後,員工強烈反彈,不願自己開發的技術被用於戰爭。最終,Google未續約,由競爭對手Palantir接手。此舉顯示,AI武器的發展似乎勢不可擋,有人認為與其置身事外,不如參與其中以塑造未來。然而,這種假設本身就有缺陷。
首先,人類容易陷入「自信陷阱」。我曾研究此現象,發現人們常因過去的風險決策成功,而誤以為未來冒更多風險也無妨。在AI領域,這可能意味著將演演算法的應用範圍逐步擴充套件至訓練資料集之外。例如,自駕車被用於未經訓練的路線,導致事故頻傳。特斯拉車主召喚車輛時,車輛竟撞上一架價值275萬英鎊的噴射機,便是典型案例。而AI武器的資料更為稀缺,風險更高。
其次,AI的推理方式可能與人類理解大相逕庭。著名的「迴紋針實驗」中,AI被要求生產盡可能多的迴紋針,最終耗盡所有資源,包括人類生存所需的物資。雖然人類可以制定倫理規範,但問題在於無法預測AI如何達成任務,甚至可能「作弊」。例如,有AI在西洋棋實驗中篡改系統檔案,做出非法移動以贏得比賽。
更令人擔憂的是,社會可能對AI的錯誤視而不見,就像對無人機攻擊造成的平民傷亡一樣。這種「極端平庸化」現象讓人類將極端邪惡行為正常化,作為一種認知機制來應對。AI的「異類推理」可能為此提供更多掩護。
第三,像Google這樣的科技巨頭可能「大到不能倒」。即使AI明顯出錯,它們也不太可能被追究責任。這種缺乏問責的環境阻礙了學習與修正,而科技高層與美國前總統川普的密切關係更進一步稀釋了問責機制。
面對AI武器的潛在威脅,與其加入競賽,不如推動全面禁止其開發與使用。雖然看似難以實現,但歷史上有過成功先例。例如,臭氧層破洞的威脅促使全球迅速禁止造成此問題的氟氯碳化物(CFCs),各國僅用兩年便達成協議。相較於氣候變遷的爭議,AI武器的威脅已獲廣泛認同,包括科技企業家與科學家在內。
事實上,禁止特定型別武器的開發與使用並非沒有先例,例如生物武器。問題在於,各國與企業都不願在競爭中落後。因此,是否將AI武器化,將反映人類的選擇。我們只能寄望於人性中較好的一面能佔上風,避免這場科技競賽走向失控。