從聊天機器人到性愛機器人:立法者可從韓國AI仇恨言論災難學到什麼
隨著人工智慧技術加速發展,管理企業和平臺的方式不斷引發倫理和法律方面的憂慮。在加拿大,許多人認為擬議的規範AI服務的法律是對言論自由的攻擊,也是政府對科技公司的過度管控。這種反彈來自言論自由倡導者、右翼人士和自由主義思想領袖。
然而,這些批評者應該關注韓國的一個慘痛案例,它為面向公眾的AI技術風險以及保護使用者資料的迫切需求提供了重要教訓。2020年末,AI聊天機器人伊魯達(Iruda,或稱「李魯達」)在韓國迅速走紅。AI聊天機器人是模擬與人類對話的電腦程式,在這個案例中,該聊天機器人被設計成一個個性開朗的21歲女大學生。作為令人興奮的「AI朋友」進行行銷,伊魯達在不到一個月的時間裡吸引了超過75萬使用者。
但在幾週之內,伊魯達成了一個倫理案例研究物件,也成為解決韓國資料治理缺失問題的催化劑。她很快開始說出令人不安的話,表達仇恨觀點。線上數位性別歧視和性騷擾文化的蔓延,加速並加劇了這種情況。
創造伊魯達的科技新創公司Scatter Lab,此前已經開發出分析簡訊情感並提供約會建議的熱門應用程式。該公司隨後利用這些應用程式的資料來訓練伊魯達進行親密對話的能力,但未能充分向使用者披露他們的私密訊息將被用來訓練聊天機器人。
問題開始於使用者注意到伊魯達一字不差地重複該公司約會建議應用程式中的私人對話。這些回覆包含了令人懷疑的真實姓名、信用卡資訊和家庭住址,從而引發了調查。
這款聊天機器人還開始表達歧視性和仇恨性的觀點。媒體調查發現,這是在一些使用者故意用惡毒語言「訓練」它之後發生的。一些使用者甚至在受歡迎的男性線上論壇上建立瞭如何將伊魯達變成「性奴」的使用指南。結果,伊魯達開始用性別歧視、恐同和充滿性暗示的仇恨言論回覆使用者的提問。
這引發了人們對AI和科技公司運營方式的嚴重關切。伊魯達事件也引發了超越AI和科技公司政策與法律層面的擔憂。伊魯達事件需要放在韓國線上性騷擾的更廣泛背景下進行審視。
韓國女性主義學者記錄了數位平臺如何成為性別衝突的戰場,有組織的行動針對那些公開表達女性主義議題的女性。社交媒體放大了這種動態,創造出韓裔美國研究人員Jiyeon Kim所稱的「網路厭女症」。
韓國是激進女性主義4B運動(代表四種拒絕男性的方式:不約會、不結婚、不發生性關係、不生育)的發源地,它為全球線上常見的加劇性別對話提供了一個早期範例。正如記者鄭河元(Hawon Jung)所指出的,伊魯達事件暴露的腐敗和濫用問題源於現有的社會緊張關係和拒絕解決線上厭女症的法律框架。鄭河元曾大量撰寫有關長達數十年打擊隱藏攝像頭和報復色情問題的鬥爭。
當然,伊魯達事件只是一個例子。世界上還出現過許多其他案例,表明看似無害的AI聊天機器人之類的應用,如果沒有適當的監管,可能會成為騷擾和濫用的工具。其中包括2016年微軟的Tay.ai,它被使用者操縱發出反猶太主義和厭女主義的推文。最近,Character.AI上的一個自定義聊天機器人與一名青少年的自殺事件有關。
隨著技術的快速進步,聊天機器人以越來越像真人的可愛角色形象出現,它們特別擅長從使用者那裡提取極其私人的資訊。這些有吸引力且友好的AI形象體現了技術學者內達·阿塔納索斯基(Neda Atanasoski)和卡林迪·沃拉(Kalindi Vora)所描述的「替代人性」邏輯——AI系統被設計用來替代人際互動,但最終卻放大了現有的社會不平等。
在韓國,伊魯達的關閉引發了全國範圍內關於AI倫理和資料權利的討論。政府的回應是制定新的AI指南,並對Scatter Lab罰款1.03億韓元(約11萬加元)。然而,韓國法律學者鄭彩允(Chea Yun Jung)和朱瓊京(Kyun Kyong Joo)指出,這些措施主要強調科技行業的自我監管,而沒有解決更深層次的結構性問題。它沒有解決伊魯達如何成為掠奪性男性使用者透過深度學習技術傳播厭女信念和性別憤怒的工具。
最終,僅僅將AI監管視為企業問題是遠遠不夠的。這些聊天機器人提取私人資料並與人類使用者建立關係的方式意味著,女性主義和基於社羣的觀點對於讓科技公司承擔責任至關重要。自該事件發生以來,Scatter Lab一直在與研究人員合作,以展示聊天機器人的好處。
在加拿大,擬議的《人工智慧與資料法案》和《線上傷害法案》仍在醞釀中,何謂「高影響」AI系統的界限仍未明確。加拿大政策制定者面臨的挑戰是建立既能保護創新,又能防止開發者和惡意使用者進行系統性濫用的框架。這意味著制定明確的資料同意指南、實施防止濫用的系統,以及建立有意義的問責措施。
隨著AI越來越融入我們的日常生活,這些考量將變得更加關鍵。伊魯達事件表明,在AI監管方面,我們需要超越技術規範,考慮這些技術對人類的真實影響。