AI聊天機器人到底多耗電?專家揭露不為人知的碳足跡真相
科技
07-20
當你請AI幫你列購物清單或講冷笑話時,這些看似簡單的指令,正悄悄對地球環境造成負擔。隨著ChatGPT等大型語言模型(LLM)日益普及,其龐大的能源消耗問題已引發各界關注。
OpenAI執行長Sam Altman曾聲稱,每次使用ChatGPT查詢所耗費的能源,相當於烤箱運轉一秒多。這說法看似合理,但專家指出缺乏關鍵背景資訊。AI研究機構Hugging Face的氣候專家Sasha Luccioni強調:「若真要嚴謹評估,就該給出一個區間值,不能隨便丟出一個數字。」
科技巨頭對自家AI的能源數據諱莫如深,研究人員只能從開源模型拼湊線索。最新研究發現,不同模型的二氧化碳排放量差距可達50倍之多。若再考慮訓練模型、硬體製造維護等隱形成本,問題將更加嚴峻。
為何大型語言模型如此耗能?
LLM的參數量往往是衡量標準,像GPT-4就擁有上兆個參數。這些龐大模型需要部署在全球資料中心,依靠大量GPU晶片運算。美國現有4.4%電力用於資料中心,預計到2028年將激增至12%。
量化碳足跡的挑戰
模型訓練階段需消化海量數據,往往耗時數週、動用數千顆GPU,但企業極少公開相關資訊。而每次用戶查詢的「推論」階段更難量化,因為會受資料中心位置、供電來源甚至時段影響。
節能使用指南
研究建議:
- 依任務需求選擇適當規模的模型
- 非必要時避免使用需逐步推理的模型
- 參考Hugging Face的「AI能源評分」排行榜
- 避開用電高峰時段使用
- 簡化提問用字,省去不必要的禮貌用語
密西根大學電腦科學家Mosharaf Chowdhury指出:「在效能與準確性之間做出微小妥協,就能節省大量能源。」專家呼籲應建立類似家電的能源評級制度,讓科技公司正視這個問題。
隨著AI應用爆炸性成長,若不儘快採取行動,能源供應終將難以負荷。正如Luccioni警告:「科技公司不能再這樣下去,情況很快就會失控。」