AI寫程式暗藏危機!最新研究揭開「套件幻覺」資安漏洞
德州大學聖安東尼奧分校(UTSA)最新研究發現,開發者使用AI模型輔助寫程式時,可能面臨嚴重的「套件幻覺」安全威脅。這項堪稱目前最全面的研究已獲頂尖資安會議USENIX Security Symposium 2025收錄,引發業界高度關注。
電腦科學博士生Joe Spracklen領導的研究團隊發現,大型語言模型(LLM)經常產生不安全的程式碼。特別值得警惕的是「套件幻覺」現象——當AI推薦使用根本不存在的第三方軟體庫時,可能導致嚴重資安風險。
「這不是什麼複雜的特殊情況,」Spracklen強調,「就是開發者每天輸入的普通指令,卻可能成為駭客入侵的破口。」研究顯示,高達97%的軟體開發者會使用生成式AI輔助工作,現今30%的程式碼由AI生成,使得這個問題更加普遍。
SPriTELab主任Murtuza Jadliwala教授解釋駭客可能的手法:「當ChatGPT生成的程式碼包含不存在的套件連結,駭客只需建立同名惡意套件,就能在使用者執行時入侵系統。」這種攻擊利用人們對AI日益增長的信任,特別危險。
研究團隊測試了Python和JavaScript等主流語言,在223萬個AI生成的程式碼樣本中,竟發現440,445個案例引用了幻覺套件。值得注意的是,GPT系列模型的幻覺率(5.2%)遠低於開源模型(21.7%),而Python程式碼比JavaScript更不易出現幻覺。
「多數開發者都遇過套件幻覺,」Spracklen指出,「但很少人意識到這可能被惡意利用。每次下載套件,等於讓未知程式取得電腦的完整許可權。」
雖然比對套件清單能降低風險,但研究團隊認為根本解決之道在於改進LLM的開發基礎。他們已將發現通報OpenAI、Meta等主要AI開發商,呼籲正視這個新興資安威脅。
[end]