自駕車安全漏洞曝光:彩色貼紙竟成隱形殺手?
加州大學爾灣分校的研究團隊首次證實,路邊停車或限速標誌上若貼有多色貼紙,可能導致自駕車系統產生混淆,進而引發不可預測甚至危險的操作。這項研究在聖地牙哥舉行的網路與分散式系統安全研討會上發表,揭示了先前僅止於理論的現實影響:低成本且易於部署的惡意攻擊,可能讓部分自駕車的人工智慧演演算法無法辨識交通標誌,甚至憑空出現不存在的標誌。這兩種攻擊方式都可能導致車輛無視道路指令,觸發非預期的緊急煞車、超速等違規行為。
研究團隊表示,這項研究是首次針對市售熱門車款的交通標誌辨識系統進行大規模評估,涵蓋了三種最具代表性的AI攻擊設計。共同作者、加州大學爾灣分校電腦科學助理教授Alfred Chen指出:「Waymo每週提供超過15萬次自駕服務,而配備Autopilot的特斯拉車輛更是數以百萬計,這顯示自駕車技術已成為美國乃至全球日常生活的重要部分。這一事實凸顯了安全性的重要性,因為一旦這些系統的漏洞被利用,可能引發生死攸關的安全隱患。」
研究主要作者、Meta研究科學家Ningfei Wang(在加州大學爾灣分校攻讀電腦科學博士期間完成此項研究)表示,其團隊選擇的攻擊向量是帶有漩渦狀多色設計的貼紙,這些貼紙能混淆自駕車用於交通標誌辨識的AI演演算法。Wang指出:「這些貼紙可以透過Python等開源程式語言和影像處理函式庫,以低廉成本輕易製作。只需配備一臺有顯示卡的電腦和彩色印表機,就能破壞自駕車的交通標誌辨識系統。」
Wang還提到,研究過程中發現的一個有趣現象與當今許多商用交通標誌辨識系統的空間記憶設計有關。雖然這項功能使得「消失攻擊」(讓標誌看似從車輛視野中消失)更難實施,但卻讓偽造假停車標誌變得「比我們預期的容易得多」。Chen強調,這項研究是首次針對現實場景中商用車輛的此類安全威脅進行探討。他表示:「學術界研究自駕車安全已有多年,並在最新的自駕技術中發現了各種實際的安全漏洞。但這些研究大多侷限於學術設定,讓我們對商用自駕車系統中此類漏洞的理解極為有限。我們的研究填補了這一關鍵空白。」
Chen指出,透過聚焦於該領域現有研究的一小部分,其團隊得以揭露各種錯誤假設、不準確之處和虛假宣告。例如,先前的學術研究並未意識到商用交通標誌辨識系統中空間記憶設計的普遍存在。當Chen的團隊成員在先前設計的學術研究設定中模擬此類設計時,他們發現的結果直接挑戰了尖端研究社羣的早期觀察和主張。Chen表示:「我們認為這項工作只是一個開始,希望它能激勵更多學術界和產業界的研究人員系統性地重新審視此類安全威脅對現實世界自駕車的實際影響和意義。這將是我們真正瞭解在社會層面是否需要採取行動以確保道路安全之前,必要的第一步。」