當前位置:
首頁 > 科技 > 預測謀殺演演算法重現史達林恐怖統治 英國政府正踩踏危險紅線

預測謀殺演演算法重現史達林恐怖統治 英國政府正踩踏危險紅線

英國政府正在研發一套能夠在兇手犯案前就識別出潛在殺人犯的系統。這種工具的實際應用將帶來毀滅性後果,其運作邏輯竟與史達林時期的共產主義恐怖統治驚人相似。

諾貝爾文學獎得主索忍尼辛在其鉅著《古拉格群島》中寫道:「善惡的分界線貫穿每個人的心靈。」在共產極權統治下,當局經常在公民「可能」危害社會前就將其從社會中剔除。這種「預防性清除」往往意味著被指控者將被送往勞改營,且多數人再也無法回來。更可怕的是,當時只要對當局稍有懷疑,甚至只是「可能」做出反政府行為的暗示,就足以讓人失去所有法律救濟途徑。這種制度背後的假設是:官員能夠預知誰會犯罪——換言之,他們自認能看透人心中的那條善惡分界線。

如今英國政府正追逐這個危險的幻想,投資開發所謂「兇殺預測計畫」。該計畫利用政府和警方資料建立人物側寫,試圖「預測」哪些人具有高謀殺傾向。目前該計畫尚處研究階段,類似系統已被用於假釋決策。

這種將人類簡化為資料點的系統存在巨大風險:首先,系統判斷可能出錯而冤枉無辜;其次,我們永遠無法驗證「未發生的謀殺」究竟是被預防了,還是根本不會發生;第三,這套系統可能被投機分子利用來針對特定族群——特別是少數民族,這種風險在官僚體系中尤其明顯。

數學家凱西·歐尼爾曾記錄多起案例:教師因AI演演算法給出的低分而被錯誤解僱。這些演演算法過度依賴可量化資料(如考試分數),卻忽略教學成效等難以量化的因素。當教師質疑解僱決定時,當局只回應「演演算法要求這麼做」——即使他們承認背後的數學模型並非百分之百準確。

更令人憂心的是,英國這套系統使用的資料庫包含數十萬未經當事人同意的個資,其中涉及成癮史、心理健康狀況、殘疾狀況、自殘紀錄等敏感資訊,甚至包含種族與性別資料。這些變數自然會增加對少數族裔和弱勢群體的偏見風險——因為AI演演算法本質上是將過往的執法模式投射到未來。

半世紀前,索忍尼辛向西方世界揭露了極權國家如何為理想碾壓人權。如今令人費解的是,像英國這樣的民主國家,竟重拾共產極權的失敗實驗,還美其名曰「保護公眾」。社會確實需要保護——不僅要防範罪犯,更要警惕這種過度迷信科技能建構健康社會的「技術霸權」思想。