當前位置:
首頁 > 科技 > 「大過濾器」近在眼前?人工智慧或成文明終結者

「大過濾器」近在眼前?人工智慧或成文明終結者

首先,讓我們來談談背景。宇宙中有約2000億兆顆恆星,而宇宙誕生至今已有137億年。在如此龐大的時間與空間尺度下,我們不禁要問:外星文明究竟在哪裡?這就是著名的「費米悖論」所探討的核心問題——我們對宇宙中存在生命的可能性充滿期待(例如在適居帶發現的行星等),但至今卻只找到一個孕育智慧生命的星球。

針對這個問題,牛津大學人類未來研究所的羅賓·漢森提出了一種解釋,稱為「大過濾器」理論。該理論認為,既然我們尚未觀測到任何技術先進的外星文明,這意味著生命或文明的發展過程中存在著巨大的障礙,阻止它們達到能夠對環境產生顯著影響、並被地球觀測到的階段。

當然,我們尚未接觸到外星文明可能還有其他原因,例如我們觀察的時間不夠長,或是因為技術不夠成熟而未能接收到正確的訊號,甚至可能是外星人刻意將我們置於「銀河動物園」中。但如果「大過濾器」理論是正確的,我們並不知道自己處於這個過濾器的哪個階段。

這個過濾器可能出現在早期,例如從單細胞生命進化到複雜生命的過程極為困難,或是從複雜動物發展出智慧生命的門檻極高。但也有可能,這個過濾器正等待在我們前方,阻止我們成為能夠探索銀河的文明。例如,文明可能在發展出足以成為多星球物種的技術之前,就不可避免地發現了自我毀滅的方法(如核武器)。

在最新發表的一篇論文中,曼徹斯特大學天體物理學教授、卓瑞爾河岸天體物理學中心主任麥可·加勒特提出,人工智慧(AI)的出現可能導致外星文明的毀滅。加勒特在論文中寫道:「即使在AI發展成為超級智慧並可能自主運作之前,它很可能會被生物文明中的競爭群體武器化,以試圖超越彼此。AI決策過程的快速性可能以遠超原始意圖的方式加劇衝突。在AI發展的這個階段,廣泛整合AI於自主武器系統和即時防禦決策過程中,可能導致災難性事件,例如全球熱核戰爭,從而加速人工與生物技術文明的滅亡。」

當AI進化為人工超級智慧(ASI)時,情況可能會更加惡化。加勒特進一步解釋:「一旦達到技術奇點,ASI系統將迅速超越生物智慧,並以完全超越傳統監督機制的速度進化,導致無法預見且非預期的後果,這些後果很可能與生物利益或倫理不相符。對於專注於計算效率的ASI來說,維持生物實體的實用性可能並不吸引人,因為生物體需要大量的資源,如能源和空間,ASI甚至可能將其視為麻煩而非益處。ASI可能會以各種方式迅速消滅其母體生物文明,例如設計並釋放一種高度傳染且致命的病毒到環境中。」

文明可以透過分散到其他星球或前哨站來降低這種風險,並在那裡測試AI或與其共存。這樣做的好處是,外星文明可以觀察這些星球的進展,並提前獲得風險警告。例如,如果AI在無止境地追求生產迴紋針的過程中突然開始毀滅星球,另一個觀察中的星球可以得知這種潛在結果,並採取措施避免它。

然而,加勒特指出,在地球上,我們向AI和ASI邁進的速度遠快於成為多星球物種的速度。這與太空探索所面臨的巨大挑戰有關,因為太空探索需要大量的能源、材料進步,以及克服太空中的惡劣環境。與此同時,AI的進步依賴於資料儲存和處理能力的提升,而我們在這方面似乎正在持續進步。

根據加勒特的說法,如果其他文明正遵循我們似乎正在走的路徑,或許會利用AI來協助應對成為星際文明的挑戰,那麼AI災難很可能會在它們能夠在太陽系或銀河系其他地方建立立足點之前發生。加勒特估計,一旦文明廣泛採用AI,其壽命大約只有100-200年,這使得它們與其他外星文明接觸或傳送訊號的機會非常渺茫。這也意味著我們發現這種訊號的機會相當低。

加勒特總結道:「如果ASI將先進文明的通訊壽命限制在幾百年內,那麼在銀河系中同時存在的通訊文明可能只有少數幾個。這與目前SETI調查和其他在電磁波譜中探測技術特徵的努力所得到的零結果並不矛盾。」

情況可能更加黯淡,因為這意味著「大過濾器」(我們在技術成熟之前的自我毀滅)可能仍在我們前方,而非過去。這篇論文發表在《宇航學報》上。