DeepGuard:AI技術革新,守護你的數位安全
隨著人工智慧(AI)技術的飛速發展,由AI生成的逼真影象,無論是基於文字描述還是應用於影片中,都對個人安全構成了真實的威脅。從身份盜用到個人影象的濫用,分辨真假變得越來越困難。
為了應對這一挑戰,英國樸茨茅斯大學的人工智慧與資料科學(PAIDS)研究中心與其他研究機構合作,開發了一款名為DeepGuard的創新解決方案。這款工具能夠精準區分真假影象,並識別人工影象的來源。DeepGuard結合了三種先進的AI技術:二元分類、整合學習和多類分類,使AI能夠從標記資料中學習,做出更智慧、更可靠的預測。
DeepGuard不僅可用於調查和起訴詐騙等犯罪活動,媒體也可以利用它來確保報導中使用的影象真實無誤,從而防止錯誤資訊或無意的偏見。這款工具由阿爾及利亞Frères Mentouri大學電子學系的Gueltoum Bendiab博士和Yasmine Namani領導的研究團隊開發,並得到了樸茨茅斯大學PAIDS研究中心和計算機學院的Stavros Shiaeles博士的支援。
Shiaeles博士表示:「隨著技術能力的不斷提升,僅憑人眼識別假影象將是一項持續的挑戰。被操縱的影象對我們的隱私和安全構成了重大威脅,它們可能被用來偽造檔案進行勒索、破壞選舉、偽造電子證據、損害聲譽,甚至可能被用來煽動對兒童的傷害。」
「此外,社交媒體平臺如TikTok上,一些人正在利用模特兒的影象製作角色,並在遊戲或娛樂中進行動畫化,從中牟取不當利益。」
「DeepGuard及其未來的迭代版本,應該能夠成為一種有價值的安全措施,用於驗證各種情境下的影象,包括影片中的影象。」
這項研究已發表在《Electronics》期刊上,並將支援該領域的進一步學術研究,學術界還可獲得額外的資料集。在開發過程中,研究團隊回顧並分析了影象操縱和檢測的方法,特別關注涉及面部和身體變化的假影象。他們考慮了2016年至2023年間發表的255篇研究文章,這些文章探討了檢測操縱影象的各種技術,如表情、姿勢、聲音或其他面部或身體特徵的變化。