AI的「黑盒子」之謎:連開發者都無法完全理解的數位大腦
當今最頂尖的AI科學家們正在打造可能改變世界的生成式人工智慧,但令人驚訝的是,就連這些創造者自己也無法完全理解這些「數位大腦」究竟是如何運作的。Anthropic共同創辦人Dario Amodei在今年4月發表的文章中坦承:「外界人士往往會感到震驚與不安,因為我們確實不瞭解自己創造的AI是如何運作的。這種情況在科技發展史上是前所未見的。」
與傳統遵循程式設計師預設邏輯的軟體不同,生成式AI模型在接受提示後,會自行尋找達成目標的路徑。前OpenAI研究員、現任Anthropic科學家的Chris Olah將生成式AI比喻為「生長出電路的支架」。Olah被視為「機械可解釋性」領域的權威,這門學問旨在透過逆向工程來解析AI模型的運作機制。
Google DeepMind資深研究科學家Neel Nanda表示:「要完全理解一個大型語言模型是極具野心的任務,這有點類似於試圖完全理解人類大腦。」事實上,神經科學家至今仍未能完全破解人腦的奧秘。
波士頓大學電腦科學教授Mark Crovella指出,探究數位大腦內部運作的學問已從幾年前的冷門領域,迅速成為學術研究的熱門焦點。「學生們對此趨之若鶩,因為他們看到了這個領域可能帶來的重大影響。」這項研究不僅可能讓生成式AI變得更強大,其探索過程本身也充滿智力挑戰的樂趣。
新創公司Goodfire開發的AI軟體能將資料轉化為推理步驟,藉此理解生成式AI的處理過程並修正錯誤。執行長Eric Ho坦言:「這確實像是一場與時間的賽跑,我們必須在將極度智慧卻難以理解的AI模型部署到現實世界前找到答案。」
Amodei在文中樂觀預測,未來兩年內可能找到完全解密AI的關鍵。奧本大學副教授Anh Nguyen也認同這個時間表:「到2027年,我們或許就能擁有可靠檢測模型偏見與惡意意圖的可解釋性工具。」
Crovella教授強調,研究人員已能觀察AI模型中每個「數位神經元」的活動。「與人腦不同,我們確實能監測這些模型中的每個等效神經元。真正的挑戰在於找到正確的『審問』方式。」
若能破解生成式AI的運作機制,將為其在國家安全等關鍵領域的應用掃除障礙。Nanda認為,深入理解生成式AI的思考過程,可能像DeepMind的AlphaZero揭示全新棋步一樣,為人類帶來突破性的發現。
Amodei最後寫道:「強大的AI將塑造人類的命運。在它們徹底改變我們的經濟、生活與未來之前,我們有權利理解自己的創造物。」這不僅是科學挑戰,更關乎人類對未來的掌控權。
[end]