當前位置:
首頁 > 科技 > AI幻覺有解?神經符號AI如何終結大型語言模型的胡言亂語

AI幻覺有解?神經符號AI如何終結大型語言模型的胡言亂語

當今科技巨頭的人工智慧實驗面臨的最大問題,並非AI可能掌控人類,而是像ChatGPT、Gemini和Llama這些大型語言模型(LLM)持續出錯的頑疾。其中最著名的案例莫過於2023年ChatGPT錯誤指控美國法學教授Jonathan Turley性騷擾的「幻覺」事件。OpenAI的解決方式竟是直接讓ChatGPT拒答與該教授相關的問題,這種消極做法顯然無法令人滿意。

LLM的問題不僅於此:強化刻板印象、提供西方中心觀點,更嚴重的是當錯誤資訊流竄時完全無法追究責任。儘管歐盟在2024年火速透過《AI法案》試圖主導監管,但該法案過度依賴業者自律,實質上並未解決核心問題。最新測試顯示,即使最先進的LLM仍不可靠,但主要AI公司依舊拒絕為錯誤負責。

隨著「代理型AI」興起,未來使用者可能委託LLM規劃假期或管理帳單,潛在風險將急遽攀升。傳統的「人在迴路」解決方案只是將責任轉嫁給人類,無法根治問題。更糟的是,現今LLM需要巨量訓練資料,導致開發者不得不餵食AI生成的合成資料,這讓新模型繼承舊模型的缺陷,修正錯誤的成本也隨之暴漲。

神經符號AI或許是這些困境的解答。這種新興技術結合神經網路的預測學習與形式規則的教導,讓人類將邏輯法則(如「若a則b」)、數學規則(如「若a=b且b=c則a=c」)等知識直接編碼給AI。透過「神經符號迴圈」的訓練過程,AI能從資料中提取規則,再將這些知識回饋到網路中。

這種方法不僅更節能(無需儲存大量資料),也更具問責性(使用者更容易追蹤決策過程),同時更公平(可預設「決策不得基於種族或性別」等規則)。例如,當AI學會「下雨時室外物品會濕」的規則後,就無需記憶每個可能淋濕的物品例項。

目前神經符號AI最成功的應用集中在專業領域,如Google用於預測蛋白質結構的AlphaFold和解決幾何難題的AlphaGeometry。中國的DeepSeek則採用「蒸餾」學習技術向這個方向邁進。但要讓神經符號AI適用於通用模型,仍需進一步研究其規則辨識與知識提取能力。

理想的AI系統應該能夠:從少量範例適應新事物、自我檢驗理解、多工處理並重用知識、進行可靠的複雜推理。如此一來,完善的數位技術甚至可能成為監管的替代方案,因為制衡機制已內建於系統架構中。這條路雖然漫長,但至少我們已看見曙光。