當前位置:
首頁 > 科技 > 打造安全防護利器:專注於對抗惡意軟體的大型語言模型

打造安全防護利器:專注於對抗惡意軟體的大型語言模型

當電腦科學與工程學系的助理教授馬庫斯·波塔辛博士(Dr. Marcus Botacin)首次接觸到像ChatGPT這樣的大型語言模型(LLMs)時,他立刻將焦點放在安全議題上。LLMs是一種能夠快速生成文字的人工智慧技術,而某些LLMs(包括ChatGPT)甚至能夠編寫電腦程式碼。波塔辛博士擔心,攻擊者可能會利用LLMs的能力,快速生成大量的惡意軟體。

「身為一名安全研究人員(或者說是安全偏執狂),當你看到新技術時,腦中會立刻浮現疑問:『這可能會出什麼問題?人們會如何濫用這項技術?』」波塔辛博士如此說道。為了應對這項安全威脅,他從今年開始著手開發一款專注於安全防護的LLM,並將其形容為「縮小版且以安全為核心的ChatGPT」。

「我們的想法是,用攻擊者的武器來對抗他們,」波塔辛博士解釋道。「如果攻擊者利用LLMs大規模生成惡意軟體,我們就要大規模生成防護規則來抵禦。」惡意軟體通常具有獨特的模式,這些模式就像指紋一樣,可以被用作識別的特徵。波塔辛博士計劃讓他的LLM利用這些特徵來自動識別惡意軟體,並編寫相應的防護規則。

目前,這些規則是由人類分析師手動編寫的,但這項工作既耗時又需要豐富的經驗,尤其是在面對攻擊者利用AI瞬間生成大量程式碼的情況下,人類分析師往往難以招架。波塔辛博士希望他的LLM能成為分析師的得力助手,協助他們更快、更準確地識別惡意軟體。

「當然,我們的目的不是取代分析師,而是讓分析師能夠專注於思考——引導機器,然後讓機器為分析師完成繁重的工作,」波塔辛博士強調。至於這款LLM的軟體介面形式,波塔辛博士仍在考慮中,可能是網站或可供下載的原始碼,但最終它將向公眾開放。

雖然這款LLM可以用於預防性措施,但波塔辛博士預期分析師會更多地將其用於事件應對。例如,分析師可以在筆記型電腦上執行這款LLM,並將其帶到公司,用於搜尋網路電腦中的惡意軟體特徵。這項計畫也與波塔辛博士的其他研究相呼應,他正在將惡意軟體檢測整合到電腦硬體中,作為一種預防性措施。

為了讓這款LLM足夠輕量化,能夠在筆記型電腦上執行(「一個能放進口袋的ChatGPT」),它需要進行大量的訓練。在開發過程中進行更多的訓練,將有助於縮小最終產品的體積。波塔辛博士擁有由圖形處理器(GPUs)組成的運算叢集,他將利用這些GPUs來訓練LLM。由於GPUs能夠同時處理大量資料,因此非常適合用於訓練LLMs。

波塔辛博士的科學合作夥伴是物理科學實驗室,這項研究將為未來的網路安全防護提供更強大的工具。