科學家:大型語言模型對人類不構成生存威脅
ChatGPT 以及其他大型語言模型(LLMs),具備數十億個引數,並在龐大的網路規模語料庫上進行預訓練。有觀點認為,它們在未經特定訓練的情況下,就獲得了某些能力。這些能力被稱作「突現能力」,也一直是討論語言模型潛力與風險的焦點。巴斯大學研究員 Harish Tayyar Madabushi 及其同事在新論文中,提出了一個全新理論,用以解釋突現能力,同時考量到可能混淆的因素,並透過超過 1000 次實驗,嚴謹地驗證了該理論。研究結果顯示,所謂的突現能力並非真正「突現」,而是情境學習、模型記憶和語言知識共同作用的結果。
Lu 等人指出,像 ChatGPT 這樣的大型語言模型無法獨立學習或獲得新技能。
Tayyar Madabushi 博士表示:「目前盛行的一種說法,認為此類人工智慧對人類構成威脅,這不僅阻礙了這些技術的廣泛應用和發展,也使我們的注意力從真正需要關注的問題上轉移開來。」
Tayyar Madabushi 博士及其同事進行了一系列實驗,以測試大型語言模型完成從未遇過的任務的能力,也就是所謂的突現能力。
舉例來說,大型語言模型能回答有關社交情境的問題,即便從未接受過這方面的明確訓練或程式設計。
先前研究認為,這是模型「瞭解」社交情境的結果,但研究人員發現,實際上這是模型運用了大型語言模型的一項眾所周知的能力——基於少量示例完成任務,即「情境學習」(ICL)。
透過數千次實驗,研究團隊證明,大型語言模型遵循指令的能力、記憶力和語言熟練程度,共同造就了它們所展現出的能力和侷限性。
Tayyar Madabushi 博士稱:「一直以來,人們擔心模型規模越來越大,它們將能解決我們目前無法預測的新問題,從而可能獲得包括推理和規劃在內的危險能力。」
「這引發了大量討論,例如去年在布萊切利園舉行的人工智慧安全峰會,就曾徵求過我們的意見。但我們的研究表明,擔心模型會做出完全出乎意料、創新且可能危險的事情,是沒有根據的。」
「對大型語言模型生存威脅的擔憂,並不侷限於非專業人士,全球一些頂尖的人工智慧研究人員也表達過類似擔憂。」
然而,Tayyar Madabushi 博士及其合著者堅持認為,這種擔憂是毫無根據的,因為他們的測試清楚地表明,大型語言模型並不存在突現的複雜推理能力。
Tayyar Madabushi 博士表示:「儘管應對現有人工智慧被濫用的潛在風險,如製造假新聞和欺詐風險增加等問題很重要,但基於所謂的生存威脅制定法規,為時尚早。」
「重要的是,對終端使用者而言,在沒有明確指示的情況下,依賴大型語言模型解釋和執行需要複雜推理的複雜任務,可能是個錯誤。」
「相反,除了最簡單的任務外,使用者最好明確說明要求模型做什麼,並在可能的情況下提供示例,這樣可能會更有幫助。」
達姆施塔特工業大學的 Iryna Gurevych 教授表示:「我們的研究結果並不意味著人工智慧完全沒有威脅。」
「相反,我們證明瞭與特定威脅相關的複雜思維技能的所謂『突現』,並無證據支援,而且事實上,我們完全可以很好地控制大型語言模型的學習過程。」
「因此,未來的研究應聚焦於模型帶來的其他風險,例如它們被用於生成假新聞的可能性。」
Sheng Lu 等人 2024 年發表的論文《大型語言模型中的突現能力只是情境學習?》(Are Emergent Abilities in Large Language Models just In-Context Learning? ),論文預印本 arXiv: 2309.01809