AI超越人類?科技巨頭與學界觀點大對決
科技
03-28
近期AI產業領袖不斷炒作「超級人工智慧」即將超越人類的論調,但多數學界專家卻認為這只是行銷話術。這場關於人工通用智慧(AGI)的論戰,正引發科技圈激烈辯論。
OpenAI執行長Sam Altman上月公開表示:「AGI系統已初見曙光」;Anthropic創辦人Dario Amodei更預測「2026年就可能達成里程碑」。這些宣言正為數千億美元的運算硬體投資背書。然而Meta首席AI科學家Yann LeCun直言:「僅靠擴大語言模型根本無法實現人類等級AI」。
美國人工智慧促進協會(AAAI)最新調查顯示,超過75%學者認同「現有技術路線難以產出AGI」。德國達姆施塔特工業大學知名學者Kristian Kersting犀利指出,企業誇大AGI威脅根本是商業策略:「他們暗示『只有我能掌控這危險科技』,實則要讓大眾產生依賴」。
當然學界並非全盤否定風險。諾貝爾獎得主Geoffrey Hinton、圖靈獎得主Yoshua Bengio等重量級學者都警告過強大AI的潛在危機。Kersting生動比喻:「就像歌德《魔法學徒》的情節,一旦失控就無法挽回」。著名的「迴紋針最大化」思想實驗更描繪出AI可能為達目標不惜毀滅人類的極端情境。
劍橋大學AI未來與責任計畫主任Sean O hEigeartaigh分析,這種認知落差可能源自職業選擇:「對現有技術過度樂觀的人,自然傾向加入投入大量資源的企業」。他強調無論AGI何時實現,都該嚴肅看待,「這將是人類史上最重大的事件」。
真正的挑戰在於如何讓政治人物與公眾理解這些概念。O hEigeartaigh坦言:「談論超級AI總會引發本能抗拒...聽起來太像科幻情節」。這場關乎人類未來的思辨,才剛剛開始。