人工通用智慧(AGI)是什麼?它與其他AI有何不同?
訓練人工智慧系統的過程,其實與教養孩子頗為相似。正因如此,部分AI研究人員開始模仿兒童自然獲取知識的方式——透過探索、好奇心、漸進式學習與正向強化來理解周遭世界。
羅徹斯特大學電腦科學系副教授Christopher Kanan指出:「當前許多AI演演算法的問題,其實可以借鏡神經科學與兒童發展理論來解決。」這位專精於人工智慧、持續學習、視覺辨識與腦啟發演演算法的專家強調,當AI具備人類般的推理能力(甚至更快更好)時,如何確保人類安全就成為關鍵議題。他認為所有AI系統都需內建防護機制,且「若等到開發末期才加入就為時已晚,這不該是最後步驟,否則我們可能釋放出怪物」。
傳統AI研究多聚焦於「狹義人工智慧(ANI)」,即專精單一任務的系統。像是影像辨識、語音助理或策略遊戲等領域,這些系統表現往往超越人類。而「人工通用智慧(AGI)」則追求建構能像人類般跨領域理解、推理與學習的系統,這仍是AI研究的聖杯。至於「人工超級智慧(ASI)」——在各方面遠超人類智慧的存在,目前仍屬科幻範疇。
現代AI應用的核心技術「深度學習」,自2014年起透過人工標註的大資料訓練多層神經網路。這項技術推動了電腦視覺、自然語言處理乃至生醫研究的突破,使系統在影像辨識、語言翻譯、圍棋對弈甚至生成文字/影象/程式碼等方面表現卓越。
以OpenAI的GPT-4為例,這類大型語言模型(LLM)採用「自我監督學習」,透過預測文字中的下個詞彙來訓練,消化相當於數萬個人類壽命才能讀完的網路文字。其後再經過「監督式微調」與「人類反饋強化學習(RLHF)」來修正輸出品質。
這些模型在語言相關任務表現驚人:不僅能透過律師考試(90百分位)、LSAT(88百分位)等專業測驗,研究更顯示其情商超越人類。它們可擔任科學家的協作者,協助生成假說、撰寫研究提案,甚至整合複雜文獻。但缺點是可能產生「幻覺」(自信地輸出錯誤資訊),且訓練完成後知識即凍結,無法持續更新。
現行生成式AI缺乏「後設認知」——它們通常無法意識自身知識盲區,遇到模糊指令時也鮮少主動釐清。相較人類從基礎技能逐步累積的「持續學習」能力(如嬰兒從爬行到體操的程序),當前LLM尚未展現此類特質,這正是我們實驗室重點研究的課題。
AI對職場的衝擊已清晰可見,尤其威脅需要專業知識的白領工作。當AI助手能讓新手產出專家級成果時,企業所需人力將大幅減少。但涉及肢體靈巧度、創造力、領導力或實體互動的工作(如醫療照護、手工藝)短期仍難被取代。
比起Nick Bostrom提出的「迴紋針末日」假設,我更憂心人類蓄意濫用AI造成的災難。我們需要國際合作、負責任的開發策略,以及對AI安全研究的投資。雖然AI企業主現在主動要求政府監管,但過度規範可能扼殺開源創新,使AI利益集中於少數集團。
被譽為AI三巨頭的Yoshua Bengio、Geoffrey Hinton與Yann LeCun都認同AGI可能實現,其中Bengio與Hinton近期更警告其可能威脅人類存續。但我們都不認為現行LLM架構足以達成真正的AGI——畢竟人類思考不全然依賴語言,而LLM受限於文字推理,在抽象思考與視覺化方面仍有根本限制。