AI預測犯罪興起!公開透明才能避免科技濫用
還記得2002年那部科幻驚悚片《關鍵報告》嗎?史蒂芬·史匹柏執導的這部電影,描繪了一個令人不安的未來世界——警方透過三位「先知」的預知能力,在兇殺案發生前就逮捕「未來罪犯」。這部改編自菲利普·狄克小說的電影,丟擲了沉重的道德難題:一個人怎能為尚未犯下的罪行負責?如果系統出錯又該怎麼辦?
雖然現實中沒有所謂的「先知」,但《關鍵報告》預言的某些情節,卻比創作者想像中更快成真。過去十多年來,全球各地警局已開始使用資料分析系統,試圖預測犯罪發生的時間、地點,甚至鎖定潛在犯罪者。這不是科幻情節,而是正在發生的現實,市場分析師更預測這項技術將迎來爆發性成長。
問題在於,預測性執法技術雖然先進,卻存在嚴重道德隱憂。這套系統運用人工智慧和資料分析,透過犯罪報告、逮捕紀錄等大量資料,找出犯罪模式並預測風險。現代AI技術能處理更細緻的監控資料,警方藉此決定資源配置——可能是鎖定高風險區域(熱點預測),或是標記高風險個人。
佛羅裡達州帕斯科郡就曾爆發爭議,警方列出「潛在犯罪者名單」並頻繁登門查訪,連未成年人都因信箱號碼缺失、草坪雜草過長等小事被開罰單。2021年四名居民成功控告郡政府侵犯隱私權,該計畫最終終止。芝加哥和洛杉磯也相繼廢除類似系統,原因包括準確率低下、加劇種族與經濟偏見等問題。
這些失敗案例凸顯關鍵矛盾:儘管執法單位推崇AI工具維護治安,人權團體卻憂心隱私侵犯、缺乏問責與透明度。更令人擔憂的是,多數美國警局對演演算法決策缺乏明確規範,民眾根本無從得知這些預測模型如何運作。布魯金斯學會研究就發現,許多地方政府完全沒有公開相關技術的運作細節。
這種「黑箱作業」阻礙獨立監督,衍生諸多質疑:被系統標記為高風險的民眾有何申訴管道?誰來確保系統公平性?現行監督機制是否足夠?這些疑問正引發激烈辯論——有人視其為必要創新,也有人認為是危險的權力擴張。
加州聖荷西市的做法或許值得借鏡。該市制定AI使用原則,要求政府部門採用任何AI工具前,都必須評估風險並確保透明度。這種做法能有效開啟黑箱,讓公眾檢視訓練資料是否存有種族或經濟偏見——雖然完全消除偏見極為困難,但至少可以大幅改善。
研究顯示,當民眾認為政府作為公平透明時,會更願意參與公共事務。執法機關若將科技視為「輔助工具」而非「正義替代品」,反而能創造更好的治安成果。畢竟,真正的問題從來不在技術本身,而在於我們如何使用它。
[end]