當前位置:
首頁 > 科技 > 對抗深偽技術:CHARCHA即時互動驗證系統

對抗深偽技術:CHARCHA即時互動驗證系統

卡內基梅隆大學機器人研究所與麻省理工學院(MIT)的研究團隊,近日開發出一套名為CHARCHA(Computer Human Assessment for Recreating Characters with Human Actions)的安全且個人化的驗證協議,讓使用者的影像能夠安全地出現在生成式影片內容中。這項研究旨在應對生成式AI所帶來的倫理問題,例如未經授權的深偽技術(deepfakes),並已發表於arXiv預印本伺服器。

「當我們發現從網路上擷取資料並在未經同意的情況下創造出逼真的AI內容是如此容易時,我們就知道必須開發一套保護機制。」卡內基梅隆大學2024年機器學習碩士生、共同主要研究者Mehul Agarwal表示。「我們正在應對惡意行為者濫用生成式AI的能力日益增強的趨勢,並試圖走在這股潮流的前端。」

CHARCHA系統的靈感來自於CAPTCHA的驗證機制。與CAPTCHA使用文字或影象測試來區分人類與機器人不同,CHARCHA依賴即時的物理互動來進行區分。該程式會要求使用者在網路攝影機前執行一系列隨機的物理動作,例如左右轉頭、瞇眼或露出牙齒微笑。整個即時驗證過程約需90秒,系統會分析這些動作以確保使用者確實存在並正確執行指令。透過確保使用者與系統互動,CHARCHA能防止預錄影片或靜態圖片繞過驗證。

「內建的演演算法會分析微小的動作,以驗證使用者是否真實存在而非模擬。」共同主要研究者、現任職於MIT媒體實驗室的卡內基梅隆大學電腦科學校友Gauri Agarwal解釋。「一旦系統確認你已準確且即時完成動作,程式便會使用這些影像來訓練我們的模型。」

CHARCHA為選擇與其互動的使用者提供了獨特的自主權。透過使用該程式,使用者不必完全放棄生成式AI內容,而是能夠自信地個人化音樂影片或其他內容。「許多平臺無限期地儲存資料,並且對於AI生成內容的使用方式政策不明確。」Mehul表示。「CHARCHA將責任轉移給使用者,讓他們在生成任何影像之前先進行自我驗證。它不依賴外部的隱私政策,並讓人們對自己的影像擁有更大的控制權。」

Gauri和Mehul Agarwal在2024年神經資訊處理系統會議(NeurIPS)上展示了CHARCHA,並獲得多位業界領袖的極大興趣。「我認為會議上觀眾的積極回應,確實凸顯了生成式AI工具安全性的需求。」Gauri說。「這進一步確認了我們的信念,即CHARCHA可能會成為未來的重要工具。」