Q&A:DeepSeek如何重塑AI格局
今年1月27日(星期一),一家名不見經傳的中國新創公司DeepSeek推出了生成式人工智慧(AI)模型,此舉在矽谷和全球股市掀起了軒然大波,引發了恐慌。該模型足以與OpenAI、Meta和Google等科技巨頭的模型相抗衡,其AI助理一躍成為美國下載量排名第一的應用程式,讓原本認為只有西方大公司才能主導AI領域的業界大為震驚。
許多與AI相關的股票,包括輝達(Nvidia)的股票,都受到了衝擊,因為投資者重新評估了競爭格局。然而,真正讓市場震動的是,DeepSeek開發其AI模型的成本僅為ChatGPT和Gemini等模型的一小部分。DeepSeek的推出被稱為全球AI競賽中的「人造衛星時刻」。
為了剖析這一發展對AI未來的意義以及它將如何影響社會,我們採訪了羅賓遜數位創新中心主任阿倫·萊伊(Arun Rai)。
長期以來,AI發展一直是一場靠蠻力的遊戲——更大的模型、更強的運算能力和先進的晶片。OpenAI、Google DeepMind和Anthropic等公司在訓練GPT - 4等模型上花費了數十億美元,依賴頂尖的輝達GPU(A100/H100)和大型雲端超級電腦。
DeepSeek則採取了不同的方法。它沒有依賴昂貴的高階晶片,而是注重效率最佳化,證明瞭透過更聰明的軟硬體最佳化也能構建強大的AI。
主要的差異包括:DeepSeek的崛起並非漸進式的,而是突如其來且出人意料。該公司於2023年底成立,在短短一年多的時間裡,隨著其首款大型語言模型DeepSeek - R1的推出,從一家新創公司變成了行業顛覆者。
美國政府為了放緩全球競爭對手的AI進展,對先進的輝達AI晶片(A100/H100)實施了貿易限制。但DeepSeek進行了調整。在只能使用效能較弱但供應更充足的H800 GPU的情況下,該公司最佳化了模型,使其能夠在低端硬體上執行,同時不犧牲效能。
DeepSeek不僅推出了一個AI模型,還重塑了AI話題,表明最佳化、更聰明的軟體和開放存取與強大的運算能力一樣具有變革性。
AI模型在存取許可權方面各不相同,從完全封閉、需付費使用的系統,到開放權重再到完全開源的版本都有。DeepSeek的做法處於開放性的最前沿——是迄今為止限制最少的大型AI模型之一。
大多數AI模型都受到嚴格控制。OpenAI的GPT - 4、Google DeepMind的Gemini和Anthropic的Claude都是專有模型,這意味著只有透過API付費的客戶才能使用。它們的底層技術、架構和訓練資料都是保密的,公司控制著模型的使用方式,實施安全措施並防止未經授權的修改。
一些AI模型,如Meta的Llama 2,是開放權重但並非完全開源。模型權重是公開的,但許可協議限制了商業用途和大規模部署。開發者在使用模型之前必須同意特定條款,Meta仍然對誰可以使用以及如何使用進行監管。
DeepSeek的模型則不同。它沒有任何限制。從獨立研究人員到私人公司,任何人都可以在無需許可或簽訂許可協議的情況下微調和部署該模型。
這種做法有很大的優勢。它透過讓新創公司、研究人員和開發者無需支付許可費就能使用先進的AI,實現了AI創新的民主化。它鼓勵了全球AI發展,讓獨立的AI實驗室能夠改進模型。而且它打破了大型AI公司的壟斷,為專有、需付費使用的AI模型提供了一個強有力的替代方案。
但它也帶來了重大風險。與專有AI不同,在專有AI中公司可以監控和限制有害應用,而DeepSeek的模型任何人都可以重新利用,包括不良行為者。這引發了對錯誤資訊、深度偽造製作和AI生成詐騙的擔憂。如果沒有內建的保障措施,開放的AI系統可能會被用於大規模傳播錯誤資訊、網路攻擊或社會操縱。
DeepSeek的舉動重新引發了一場辯論:AI模型應該完全開放,還是公司應該實施限制以防止濫用?一些人認為DeepSeek的開源發布是AI可及性和開放性的勝利,能夠推動創新,而另一些人則警告說,無限制的AI可能會導致意想不到的後果和無法控制的新風險。
DeepSeek的推出標誌著AI的一個轉折時刻——既帶來了令人興奮的機會,也帶來了重要的挑戰。它為AI發展開闢了新的可能性,同時也引發了關於安全、責任和控制的新問題。
一方面,DeepSeek的開源發布前所未有地擴大了先進AI的使用範圍,這可能會在科學、醫療保健和商業等領域帶來更快的突破。DeepSeek以效率為先的方法也挑戰了只有擁有數十億運算能力的公司才能構建領先AI模型的假設。如果這種方法能夠擴充套件,它可能會重新定義全球AI的發展方式。與此同時,其無限制的可用性也帶來了複雜的風險。
DeepSeek的推出引發了關於安全、控制和道德責任的關鍵問題。主要擔憂集中在國家安全、智慧財產權和濫用方面。
與專有AI模型不同,DeepSeek的開源方法允許任何人在沒有監管的情況下修改和部署它。這引發了人們的擔憂,即不良行為者可能會利用它進行錯誤資訊宣傳、深度偽造或AI驅動的網路攻擊。美國海軍率先禁止了DeepSeek,理由是擔心中國政府可能會獲取相關資料。
此後,美國德州、中國臺灣地區和義大利也限制了它的使用,而南韓、法國、愛爾蘭和荷蘭的監管機構正在審查其資料使用方式,這反映了人們對隱私和國家安全的更廣泛擔憂。類似的擔憂也是TikTok爭議的核心,美國官員擔心數百萬美國人使用的應用程式的資料可能會被中國政府獲取。
這場辯論不僅僅是關於DeepSeek,而是關於AI應該有多開放。AI能否既廣泛可用又得到負責任的管理?這個問題將塑造未來的AI政策和創新。
AI監管正處於十字路口。各國政府正在努力平衡創新和安全,試圖促進AI發展的同時防止濫用。但挑戰在於AI的發展速度比法律的制定速度要快。
在美國,監管重點一直放在出口管制和國家安全上,但AI監管的最大挑戰之一是誰應該對開放模型負責。隨著AI不斷發展,政策制定者面臨著一個兩難境地——如何在鼓勵進步的同時防止風險。AI模型應該對所有人開放和可用,還是政府應該實施更嚴格的控制以限制潛在的濫用?答案將決定AI的發展方式、誰能從中受益以及誰有權監管其影響。
DeepSeek對AI的影響不僅僅是關於一個模型,而是關於誰能使用AI以及這將如何改變創新、競爭和治理。
透過將一個強大的AI模型開源,DeepSeek降低了AI發展的門檻,使更多的研究人員、新創公司和組織能夠在不依賴大型科技公司或政府支援的研究實驗室的情況下構建和部署AI。它還挑戰了AI進步僅僅依賴於強大運算能力的觀點,證明瞭更聰明的軟硬體最佳化可以與蠻力方法相媲美。
與此同時,去中心化使得AI更難以監管。由於沒有中央機構控制其部署,開放的AI模型可以被自由使用和修改——這既推動了創新,也帶來了新的風險。
DeepSeek將一個關鍵問題推到了前沿:AI的未來將由少數資金雄厚的西方公司和政府支援的AI研究實驗室塑造,還是由一個更廣泛、更開放的生態系統塑造?這個選擇不僅將決定誰能使用AI,還將決定它如何重塑社會。