《未來報告》成真?英國司法部被爆料研發「謀殺預測系統」惹爭議

撰文:陳錦洪
出版:更新:

AI 謀殺預測系統|AI的方便程度不用多說,但越AI功能的升級,越來越多人對AI會負面影響人類長久以來的生活模式。英國司法部近日就爆出正在秘密研發「謀殺預測系統」的消息,引發極大關注與爭議。其利用大量個人資料,試圖分析出誰最有可能在未來犯下嚴重暴力犯罪。消息曝光後,批評聲浪迅速湧現,這就有如Tom Cruise主演的科幻電影《未來報告》中描繪情節成真。

據報導指出,英國政府希望透過這套系統,提升對高風險人士的辨識能力,藉此加強公共安全。司法部表示,目前系統僅處於研究階段,並強調所使用的資料僅限於有犯罪記錄者。然而,監督組織Statewatch透過資訊自由法取得的文件顯示,這個系統也會處理無犯罪紀錄民眾的個人資訊,包括曾經自殘、家暴受害經歷、精神健康狀況、成癮行為、以及與警方的初次接觸紀錄等敏感資料。這引起外界對於個人隱私被侵害的強烈擔憂。

英文司法部和曼徹斯特員警之間的數據共享協定內容

系統運作方式是透過演算法分析大量數據,從受害者年齡、性別、族裔、健康指標等各方面切入,建構一套預測模型。目標是找出潛在的高風險對象,並評估其未來犯下謀殺或嚴重暴力罪行的可能性。英國司法部發言人指出,此計畫的目的是「改善對重大犯罪風險的評估,最終透過更準確的分析保護公眾」。

《未來報告》劇照

不過,Statewatch與其他人權團體對此深表憂慮。他們批評,這類「預測犯罪」的系統根本存在結構性偏見的問題。尤其是當資料來源主要來自警方與內政部,而這些機構長期以來就被批評存在制度性種族主義。Statewatch研究員Sofia Lyall直言,這樣的系統將不可避免地加劇對有色人種和低收入社群的歧視,因為演算法只會放大既有的偏見,讓特定族群在尚未犯罪之前就被標記為潛在威脅。

《Psycho Pass》同樣講類似情況

蘇菲亞進一步指出,這套系統運用的資料範圍過於廣泛,從精神健康到自殘行為,乃至個人殘障狀況,這種對敏感資料的大規模挪用極具侵犯性。她認為,將這些個人問題直接與潛在暴力行為劃上等號,不僅無助於預防犯罪,還可能進一步標籤化弱勢群體,讓他們在社會中遭受更多歧視與排斥。

從技術層面來看,犯罪預測演算法本身也充滿爭議。過往多項研究已顯示,這類系統往往無法真正準確地預測個體行為,反而容易出現大量誤判。即使技術不斷進步,人的行為依然充滿變數與複雜性,單靠資料模型無法全面捕捉。尤其是暴力犯罪這類極端行為,往往涉及眾多社會、心理與偶然因素,難以簡化成數據運算的結果。