AI資安新突破!拓樸學技術揪出多模態系統的惡意攻擊
隨著多模態基礎AI模型的快速發展與普及,資安威脅也變得更加多元且複雜。美國洛斯阿拉莫斯國家實驗室的研究團隊開發出一套創新的偵測框架,能有效識別針對這類整合文字與影像處理能力之AI系統的惡意攻擊。這項突破性研究已發表在arXiv預印本平臺上,將協助開發者與資安專家更深入瞭解模型弱點,強化AI系統的防禦韌性。
「多模態模型越普及,駭客就越可能從文字、視覺甚至雙重管道發動攻擊。」洛斯阿拉莫斯電腦科學家Manish Bhattarai解釋,「AI系統正面臨日益嚴峻的威脅,細微的惡意操控可能導致輸出結果被誤導或汙染,產出看似合理實則有毒的內容。我們基於拓樸學的統一框架,能獨特識別各種來源的攻擊手法。」
多模態AI的優勢在於能將不同型別資料(如文字「圓形」與實際圓形影象)嵌入共享的高維空間中建立關聯,但這種對齊能力同時也成為系統的阿基里斯腱。當這類模型被應用在國家安全等關鍵領域時,攻擊者可能透過難以察覺的微擾動破壞對齊機制,導致系統產生錯誤或有害的輸出結果。
研究團隊運用專精於資料「形狀」分析的拓樸資料分析技術,開發出兩項名為「拓樸對比損失」的創新方法。當攻擊行為破壞文字與影象嵌入的幾何對齊時,會產生可量測的扭曲特徵。團隊論文第一作者Minh Vu博士表示:「我們的演演算法能精準捕捉攻擊特徵,結合統計技術後更可實現極高準確率的惡意資料篡改偵測。」
這項研究使用洛斯阿拉莫斯2024年部署的Venado超級電腦進行驗證,該系統整合CPU與GPU運算單元,專為高效能計算與大規模AI應用設計。測試結果顯示,面對各類已知攻擊手法與多種基準資料集時,拓樸學方法的防禦表現均顯著優於現有技術。
這項名為《多模態對齊中的敵對拓樸特徵》的研究成果,已在國際機器學習大會上發表,為新一代AI系統的安全防護開創嶄新途徑。
[end]