AI分析仇恨言論的極限:卡內基美隆大學學者深度解析
科技
05-09
大型語言模型(LLMs)是能透過分析大量文字來理解和生成人類語言的人工智慧系統。卡內基美隆大學一位研究者在最新評論中,針對LLMs在分析敏感言論(如仇恨言論)上的限制提出精闢見解。這篇評論發表在《多元文化論述期刊》上。
「論述分析學者長期關注仇恨言論如何合理化權力不平等並加劇對立,」卡內基美隆大學泰珀商學院商業管理溝通助理教授Emily Barrow DeJeu表示,「在民粹主義、本土主義興起,以及自由民主面臨威脅的當下,這個議題顯得格外重要。」
DeJeu評論的是同期刊登、由Petre Breazu等人撰寫的論文〈大型語言模型與歧視性論述分析挑戰:人機協作研究社群媒體仇恨言論〉。該研究探討LLMs能在多大程度上識別種族仇恨言論。
DeJeu指出,用電腦工具分析語言並非新概念。自1960年代起,學者就開始運用運算方法研究文字。但某些質性分析傳統上被認為只能由人類執行。如今,越來越多人想用新型LLMs來分析論述。
與其他分析工具不同,LLMs具有高度彈性:能對各類文字執行多種分析任務。雖然Breazu等人的研究及時且重要,DeJeu認為其中存在挑戰,因為LLMs設有嚴格防護機制,避免產出冒犯性內容。
DeJeu肯定作者結合人工與LLMs來編碼YouTube上關於瑞典羅姆移民乞討影片的留言,但也指出兩個問題:
她認為這篇論文在思考「人機協作」新定義方面很有價值。文末,DeJeu探討LLMs在批判論述分析中應扮演的角色:是該反覆使用LLMs來精煉思考?還是讓它們模仿人類來驗證或半自動化流程?抑或兩者結合?
「這個領域終將釐清人機協作編碼的樣貌,但現階段我們必須審慎思考這些問題,並根據答案來設計研究方法,」DeJeu如此提醒。
[end]