微軟突破性AI模型:CPU就能跑,效能不輸GPU!
科技
04-23
微軟研究院的電腦科學家團隊與中國科學院大學的學者合作,開發出一款能在普通CPU上執行的創新AI模型。這項突破性技術已發表在arXiv預印本伺服器上,詳細說明瞭模型的架構特性與測試表現。
近年來,像ChatGPT這類大型語言模型(LLM)風靡全球,讓智慧聊天機器人成為熱門話題。不過這些模型通常都需要依賴GPU晶片進行訓練和運算,因為處理海量資料需要驚人的運算能力。但隨之而來的是資料中心驚人的能源消耗問題,引發環保疑慮。
研究團隊發現了更聰明的資料處理方式。傳統AI模型使用8位或16位浮點數來儲存權重值,這種做法會消耗大量記憶體和CPU資源。而他們提出的創新架構完全捨棄浮點數,改採僅用-1、0、1三個數值的1位元設計。
這種革命性的1位元架構讓運算過程只需簡單的加減法,普通CPU就能輕鬆處理。測試結果顯示,新模型在同等規模下表現不遜於GPU版本,某些任務甚至更出色,同時大幅降低記憶體需求和能源消耗。
為支援這項技術,團隊特別開發了名為bitnet.cpp的執行環境。如果這項名為BitNet b1.58 2B4T的技術經得起驗證,將徹底改變現狀——未來使用者可能直接在個人電腦甚至手機上執行聊天機器人,不僅節能減碳,還能提升隱私保護,實現離線作業。
[end]