AI狂熱中的冷靜聲音:Gary Marcus為何堅持唱衰生成式AI?
自ChatGPT震撼全球兩年半以來,科學家兼作家Gary Marcus始終是生成式人工智慧最著名的懷疑論者,與矽谷那些AI狂熱信徒形成鮮明對比。
2023年,Marcus在華盛頓參議院聽證會上與OpenAI執行長Sam Altman同席,兩人當時都呼籲政治人物正視這項技術並考慮監管。如今情勢大不相同——Altman已放棄謹慎立場,轉而與日本軟銀和中東資金合作,試圖將ChatGPT打造成劃時代科技巨擘,讓公司估值飆升。
「Sam已經拿不到矽谷主流資金了,」Marcus在溫哥華Web Summit峰會場邊向法新社表示,「他轉向海外募資的舉動根本是絕望的表現。」
Marcus的批評核心在於:生成式AI這項能產出類人內容的預測技術,本質上存在太多缺陷,根本不可能帶來真正變革。他認為驅動這項技術的大型語言模型(LLMs)從根本上就有問題,永遠無法兌現矽谷的宏大承諾。
「我對現行AI實踐方式持懷疑態度,」他說,「AI確實可能創造巨大價值,但LLMs絕非正確途徑。而且我認為主導這些公司的,多半不是世界上最優秀的人才。」
這種懷疑論調與Web Summit會場的狂熱氛圍形成強烈對比——在1.5萬名與會者中,多數討論都圍繞著生成式AI看似無限的潛力。許多人相信人類正站在實現超級智慧(AGI)的門檻上,這種技術可能匹配甚至超越人類能力。
這股樂觀情緒將OpenAI估值推升至3000億美元,對新創公司而言堪稱空前。億萬富翁Elon Musk的xAI也急起直追。然而撇開炒作,實際效益仍相當有限——這項技術目前主要優勢僅在於程式設計輔助和辦公室文書生成。AI生成的圖像雖然有趣,但多半淪為迷因或深偽內容,對社會或商業幾乎沒有實質貢獻。
身為紐約大學長期教授的Marcus,主張採用截然不同的AI發展路徑。他相信這條路才能真正實現人類等級的智慧,而非現行生成式AI所能企及。「全力押注LLMs的後果,就是可能更優秀的替代方案將被邊緣化,」他解釋道,這種狹隘視野將「延緩我們開發出真正能幫助人類的AI——這根本是資源浪費。」
Marcus推崇的是神經符號AI(neurosymbolic AI),這種方法試圖人工重建人類邏輯,而非像ChatGPT、Google的Gemini或Anthropic的Claude等產品那樣,僅是讓電腦模型在龐大資料集上進行訓練。
對於生成式AI將取代白領工作的憂慮,Marcus嗤之以鼻,他提出一個簡單事實:「有太多白領工作必須獲得正確答案,這點至關重要。」這正凸顯AI最棘手的問題:幻覺(hallucinations)——這項技術會產生聽起來很自信的錯誤,已是公認的事實。就連AI最堅定的支持者也承認,這個缺陷可能永遠無法根除。
Marcus回憶2023年與LinkedIn創辦人Reid Hoffman(矽谷重量級人物)一次耐人尋味的對話:「他跟我打賭任何金額,說三個月內就能解決幻覺問題。我開出10萬美元賭注,他卻不敢接。」
展望未來,Marcus警告當投資人認清生成式AI的局限後,將引發更黑暗的後果。像OpenAI這樣的公司,最終必然會將最有價值的資產——用戶數據——變現。「投入巨資的人會要求回報,我認為這將導向監控社會,」他點出歐威爾式的社會風險,「他們掌握大量私人數據,可以把這些當作安慰獎來販售。」
Marcus承認生成式AI在某些容錯率高的領域確實有用武之地。「它們就像強化版的自動完成功能:寫程式、腦力激盪之類的應用很實用,」他說,「但沒人能靠這個賺大錢,因為運作成本高昂,而且大家的產品都差不多。」
[end]