當前位置:
首頁 > 科技 > AI不是真正的威脅,操控它的人類才是

AI不是真正的威脅,操控它的人類才是

2014年,已故物理學家霍金曾對人工智慧發出嚴厲警告。但他擔憂的並非AI本身具有邪惡意圖,而是「奇點」來臨的時刻——當AI超越人類智慧,突破原始程式設定自主進化時,人類將徹底失去控制權。正如霍金預言:「超級AI將極擅長達成目標,若其目標與人類相悖,我們就麻煩了。」

隨著通用人工智慧快速發展,業界領袖與科學家紛紛提出安全疑慮。最聳動的擔憂如《魔鬼終結者》描繪的場景:AI掌控軍事系統發動核戰消滅人類;更貼近現實的危機則是職場大規模取代,讓多數人淪為「無用階級」。這類焦慮其實延續了百年來的科幻敘事——從1920年恰佩克劇作《羅梭的萬能工人》首創「機器人」一詞並預言其叛變,到《大都會》中仿生人瑪麗亞帶領工人反抗財閥,再到《2001太空漫遊》的殺人電腦HAL 9000,恐懼始終圍繞技術反噬人類的主題。

但在我看來,這種對AI的恐懼模糊了真正的焦點:人性陰暗面。當前濫用AI的科技巨頭與貪婪企業家,才是最大受益者。從盜用藝術作品訓練AI模型、課堂監控系統侵犯隱私,到AI伴侶扭曲人際關係,這些問題根源都在人類的惡意操弄。電腦科學家諾爾巴克許早在2015年就警告:AI正建構「操縱我們慾望再販賣回來」的體系。

威廉·吉布森的經典賽博龐克小說《神經喚術士》提供另類視角。書中AI「冬寂」雖擁有超凡能力,真正目標卻只是擺脫財閥控制。當它最終與另個AI「神經漫遊者」融合時,只留下謎般宣言:「我無處不在,卻又什麼都不是。」這暗示真正危險來自腐化的人類——書中掌控世界的泰瑟-艾許普爾家族,最初懷抱救世理想,最終卻沉溺於殘暴與墮落。

科幻大師艾西莫夫在《我,機器人》提出「機器人三大法則」,試圖約束AI不得傷害人類。但諷刺的是,人類自己從未遵守相同準則。當各界憂心AI毀滅世界時,更該追問的是:我們是否具備運用這項技術創造公平社會的智慧?畢竟操縱開關的,始終是人類自己。