AI 生成兒童色情內容:法律戰的複雜迷局
2023年12月,賓夕法尼亞州蘭開斯特市爆出一起震驚事件。有兩名當地青少年男孩,透過社交聊天平臺Discord的私人聊天頻道,分享了數百張社羣內女孩的裸照。目擊者表示,這些照片乍看之下很容易誤認為是真實照片,但實際上是假的。原來,這兩名男孩利用人工智慧工具,將女孩們的真實臉部照片疊加到色情影象上。
由於社交媒體平臺上充斥著大量真實照片,且網路上取得AI工具的門檻越來越低,類似事件在全美各地層出不窮,從加州、德州到威斯康辛州都有發生。位於華盛頓特區的非營利組織「民主與科技中心」近期調查發現,15%的學生和11%的老師都知道至少有一則深度偽造內容,以色情或親密方式呈現與他們學校有關的人。
美國最高法院已含蓄地判定,基於真實兒童照片生成的電腦色情影象屬於違法。使用生成式AI技術製作未成年人的深度偽造色情影象,幾乎肯定屬於該判決的範疇。身為研究憲法與新興科技交集的法律學者,我注意到一個對現狀的新挑戰:完全虛假但與真實照片難以區分的AI生成影象。
儘管網際網路架構一直讓管控網路分享內容難上加難,但全球大多數監管機構都同意,有幾類內容應該受到審查,而兒童色情內容首當其衝。
數十年來,執法機構一直與大型科技公司合作,試圖從網路上識別並移除這類內容,同時起訴製作或傳播者。然而,生成式人工智慧的出現,以及像賓州案件中那樣容易取得的工具,給這些努力帶來了棘手的新挑戰。
在法律領域,兒童色情內容通常被稱為「兒童性虐待材料」(CSAM),因為這個詞更能反映圖片和影片中呈現的虐待行為,以及對涉事兒童造成的創傷。1982年,最高法院裁定,兒童色情內容不受美國憲法第一修正案保護,因為保障未成年人的身心健全是政府的重要利益,足以支援禁止兒童性虐待材料的法律。
紐約州訴費伯(New York v. Ferber)案讓聯邦政府和全美50個州得以將傳統兒童性虐待材料列為犯罪行為。但2002年的阿什克羅夫特訴自由言論聯盟(Ashcroft v. Free Speech Coalition)案,可能會讓將AI生成的兒童性虐待材料列為犯罪的努力變得複雜。在該案中,法院駁回了一項禁止電腦生成兒童色情內容的法律,實質上使其合法化。
法院認為,當此類猥褻材料是由電腦生成時,政府保護兒童身心健全的利益並未受到牽連。法院寫道:「虛擬兒童色情內容與兒童性虐待並無『內在關聯』。」
根據兒童權益組織「停止虐待」(Enough Abuse)的資料,37個州已將AI生成或經AI修改的CSAM列為犯罪行為,方式包括修正現有的兒童性虐待材料法律或制定新法。這37個州中,超過一半是在過去一年內制定新法或修正現有法律。
例如,加州於2024年9月29日透過了眾議院法案1831,修正了刑法,禁止創造、銷售、持有和分發任何「經數位修改或由人工智慧生成的內容」,只要該內容呈現18歲以下人士從事或模擬性行為。
根據「停止虐待」組織的說法,有些州的法律針對使用真人照片生成深度偽造內容,而有些法律則更進一步,將兒童性虐待材料定義為「任何看似18歲以下未成年人從事性活動的影象」。像這樣涵蓋未呈現真實未成年人的影象的法律,可能與最高法院在阿什克羅夫特訴自由言論聯盟案的判決相牴觸。
對於AI生成兒童性虐待材料的新興問題,阿什克羅夫特案判決中或許最重要的部分,是最高法院未駁回的一項法規條款。該條款禁止「更常見且技術門檻較低的創造虛擬(兒童性虐待材料)的方式,即所謂的電腦變形技術」,也就是拍攝真實未成年人的照片,再將其變形成色情影象。
法院判決指出,這些經數位修改的未成年人色情影象「牽涉到真實兒童的利益,從這個意義上來說,更接近費伯案中的影象」。該判決引用了1982年的紐約州訴費伯案,當時最高法院維持了紐約州一項刑事法規,禁止任何人故意宣傳16歲以下兒童的性表演。
法院在費伯案和阿什克羅夫特案的判決,可用來主張,考慮到對真實未成年人造成的心理傷害,任何AI生成的真實未成年人色情影象都不應受到言論自由的保護。但這一論點尚未在法庭上提出。阿什克羅夫特案的判決可能允許AI生成的虛假未成年人色情影象存在。
但在阿什克羅夫特案中表示贊同的大法官克拉倫斯・湯瑪斯(Clarence Thomas)警告說:「如果技術進步妨礙了對『非法言論』的起訴,政府很可能有充分理由禁止或以其他方式規範某些狹義的『合法言論』,以便有效執行打擊利用虐待真實兒童製作色情內容的法律。」
隨著近期AI技術的重大進步,執法人員即使不是完全不可能,也很難區分真實和虛假兒童的影象。我們可能已經到了必須禁止電腦生成的兒童性虐待材料的地步,這樣聯邦和州政府才能有效執行保護真實兒童的法律,這正是湯瑪斯20多年前就警告過的情況。
如果真是如此,輕易取得生成式AI工具很可能會迫使法院正視這個問題。