AI偵測神器「Liketropy」問世!準確率破96%還能避免誤判
隨著AI生成內容氾濫,如何精準辨識文字是否出自人工智慧之手,同時避免冤枉真人寫作者,成為當前重要課題。密西根大學研究團隊最新開發的偵測工具「Liketropy」,號稱能完美平衡這兩大關鍵指標。
這項突破性技術特別適用於學術界與公共政策領域。研究團隊結合「可能性」與「熵」兩大統計概念,設計出「零樣本統計測試」方法,無需預先訓練就能判斷文字是由人類或大型語言模型(LLM)所撰寫。
目前工具專注於分析文字的統計特性,例如詞彙出現的驚喜度與可預測性。即使面對刻意規避偵測的AI生成內容,或在模型未公開的情況下,Liketropy仍展現優異表現。針對特定LLM的測試中,平均準確率高達96%以上,誤判率僅約1%。
共同作者、羅斯商學院博士生塔拉・拉德萬德強調:「我們特別注重避免過度自信的誤判,這在教育與政策領域尤其危險。我們的目標是在保持統計信心的同時,謹慎對待每個判斷。」
令人意外的是,研究發現即使對語言模型知之甚少,這項測試仍能有效運作,打破了偵測必須依賴模型存取或訓練的傳統認知。
研究團隊特別關注國際學生與非英語母語者的公平性。新近研究顯示,這些學生常因寫作風格被誤判為「像AI寫的」。拉德萬德表示:「我們的工具能幫助他們以低風險、透明的方式自我檢查作業。」
未來團隊計劃將這項技術擴充套件至不同領域,因應法律、科學等各學科對「謹慎-有效」平衡的不同需求。此外,對抗社群媒體假訊息也是重要應用方向,特別是一些刻意訓練來散佈極端觀點的LLM。
目前密西根大學正評估將Liketropy與校內GPT系統及Maizey AI助手整合,用以區分校內AI與外部模型(如ChatGPT)生成的內容。這項研究已獲得密西根學生統計科學研討會最佳報告獎,並受到巴黎女性機器學習與資料科學組織的關注。
研究成果已發表於arXiv預印本伺服器,為AI時代的內容驗證提供新解方。
[end]