從科幻作品到現實:歐盟AI新規如何嚴防成為監控國家?

撰文:藺思含
出版:更新:

經過長達36小時的閉門談判,歐盟本月就全球首部詳細的AI監管法案達成臨時協議,從利用人工智能進行的社會評分系統、到人臉識別等基於人類生物特徵的追蹤系統,再到教室和職場的情緒解碼,這些被視為高風險的應用遭到明確禁止。

從這些尚待進一步闡明的AI規則說明中,不難發現來自近現代科幻作品的警示——監控國家、警察社會與私隱權的喪失——防止那些令人恐懼的想像不會在有朝一日成為現實,成了歐盟立法者劃定的底線。

歐盟委員會副主席堯羅娃(Vera Jourova)在歐盟會後的一篇文章寫道: 「20世紀中葉,艾西莫夫(Isaac Asimov)跨時代的預測了人工智能在我們的生活中所扮演的強大角色。他在書中設想了一系列能夠確保機械人不會傷害人類、而是服從人類的法則。」

堯羅娃談及的美國作家艾西莫夫(Isaac Asimov)被視為「科幻三巨頭」,他的小說啟發了經典電影《星球大戰》,更訂立「機械人三定律」:機械人不得傷害人類,或坐視人類受到傷害;機械人必須服從人類的命令;在不違反前兩個定律的前提下,機械人必須保護自己

圖為被視為「科幻三巨頭」的美國作家艾西莫夫(Isaac Asimov),他在小說中訂立了「機械人三定律」。

歐盟版「機械人五定律」

目前,歐盟僅就這份《人工智能法案》發佈了協議要點,當中列明一系列將遭到禁止的人工智能系統:

- 使用敏感特徵(如政治、宗教、哲學信仰、性取向、種族)的生物識別分類系統(例如,執法部門一般用於識別嫌疑人和追蹤個人的面部識別技術、企業根據面部識別AI程式篩選求職者等)

- 無針對性的從互聯網或閉路電視錄像中截取面部圖像,創建面部識別數據庫

- 應用於工作和教育場所中的情緒識別系統

- 基於個人的特徵或社會行為的社會評分/信用系統

- 操縱人的行為、使人做出有違個人意志行動的系統

- 剝削利用弱勢群體的系統

圖為12月14日,希臘總理米佐塔基斯(Kyriakos Mitsotakis)與其他歐洲國家領導人出席歐盟峰會。(Reuters)

顯然,這些措施對政府、企業和教育機構等對個人私隱、自由造成的侵犯做出了嚴格限制。在針對ChatGPT、Google Bard這類大型語言模型制定規則以前,商場、火車站、學校等各個公共場所安裝的CCTV、甚至我們的電腦鏡頭、追蹤系統甚至犯罪活動的分析預防成為法案的重點。

英國商店上演《黑鏡》情節?

想像一下,某天你剛走進一間商場購物的刻,坐在樓上辦公室的商場負責人便可透過監控攝像捕捉你的臉而收到了通知——兩周前,你在另一間店偷了一個100多元的玩具被抓。在毫不知情的情況下,你的照片已經被上傳到一個商店竊賊監視名單,一旦你再次踏足該商店,不管你是真的來購物還是偷東西,你的行蹤都會被報告給商店工作人員。

這是今年7月18日,發生在英國倫敦一位70多歲老婦身上的真實事件。這位老婦在偷了一個價值15英鎊(約149港元)的玩具給孫女後被列入監視名單,成為許多零售店的監視對象。

英國《衛報》近期的一篇報道披露,英國內政部暗中支持一家名為Facewatch的企業為零售商店提供面部識別系統,監控潛在的盜竊者,以此應對在生活成本危機之下英國社會上激增的偷竊活動。

劇集《黑鏡》中,有人類敗給AI、機械狗撲殺人類的情節。(《黑鏡》截圖)

包括這位老婦到訪的Ruxley Manor園藝店在內,今年有數百家英國零售商店選擇不再依賴警察、而是採用這種面部識技術來防盜賊。Ruxley Manor在店內安裝了四台Facewatch攝像頭,讀取購物者的面部生物信息,與數據庫中被標記的潛在犯進行核對。

根據Ruxley Manor的老闆及其他零售商的說法,報警並等待警察處理竊案的效率往往很低,而且很多時候都沒有得到警方的受理。對於政府暗中遊說零售商採用這些監控系統,內政部發言人則回應稱:「面部識別可以幫助企業積極管理商店盜竊和犯罪活動,從而保護顧客、員工和存貨。」

以國家安全之名

若非這些在真實存在的地點、人物和商店名稱,可能很難想像這是現實中的事件、而非科幻劇集《黑鏡》當中的情節。事實上,《黑鏡》第三季劇集《全網公敵》(Hated in the Nation)便講述了英國政府的類似情節。面對質問,劇中的官員以保護公共安全、監測可疑人員及避免大規模襲擊為由辯解,正如現實中安保和執法部門在機場、海關部署監控系統時所給出的理由一樣。

圖為2019年4月26日,華為深圳坂田園區內展示的用於面部識別和人工智能的顯示屏。(Getty)

在歐洲,2015年以來的難民潮、對恐怖襲擊的憂慮均推動了這些技術的開發和運用,並為當局部署這些系統提供了合法性。據《衛報》報道,截至2020年,歐盟將17億歐元資金投入有爭議性的安保技術領域,並將在此後7年繼續投入至少13億資金。在人工智能領域走在歐洲前沿的法國,則在今年通過了一項法律,允許在即將召開的奧運會和殘奧會上運用自動監控系統。

然而,許多大規模監控系統的運作並不為人所知。今年,歐洲議會的議員們就《人工智能法案》究竟如何限制面部識別系統爭執不下時,人工智能產業的代表以國家安全為由,拒絕向議員們透露這些系統的運作模式,只表示這些系統確實在運作。

禁止私人機構監控、社會評分

從現實的角度考慮,在機場、火車站、大型活動現場等場所,沒有比人工智能更有效的排除恐怖襲擊等威脅的手段。但確保公眾安全這一理由,究竟能否為所有執法機構甚至私人機構的監控行為「開綠燈」,公眾安全和個人私隱如何定界線?

圖為2017年8月1日,德國前內政部長內政部長德邁齊埃(Thomas de Maizière)在柏林Suedkreuz火車站展示旨在幫助當局打擊恐怖主義活動的新面部識別系統。(Getty Images)

在此之前的草案當中,生物識別分類系統、邊境移民管控等應用,私營企業只要在使用時告知這些應用所針對的群體、並向公眾公開算法的決策方式,就可以使用。也就是說,Ruxley Manor園藝店的做法便是合法的。但經過數月的爭論後,歐洲立法者在本月的協議給出了一個大致的框架。

根據協議要點,實時面部識別只有執法部門有權使用,而且只有在搜查綁架、販運、性剝削案件的受害者、防止具體和現實的恐怖主義威脅、或搜查特定嚴重罪行的嫌犯時可以使用——包括恐怖主義、非法販運、謀殺、綁架、強姦、武裝搶劫、參與犯罪組織等,偷盜、藏毒和吸毒等都不在其列。這就意味着,至少英國商鋪使用的Facewatch監控系統的行為在歐盟的領地上將被禁止。

圖為2017年,德國柏林Suedkreuz火車站設置的安全攝像頭正在監控旅客。(Getty)

而針對實時面部識別、社會評分系統的禁令,此前的草案也只針對政府實施,因此,銀行或借貸服務機構仍然能夠使用像Lenddo、ZestFinance等公司開發的人工智能系統,通過分析智能手機數據、瀏覽記錄、支付記錄等對個人進行借貸信用評分。

目前,來自歐盟各國的專家仍在就臨時協議敲定具體細節,明確政府如何在生物識別監控中使用人工智能的法律依據、基礎模型帶來的版權問題以及如何監管 ChatGPT 等主要人工智能系統將被提上議事日程。但在歐盟制定的這份「機械人定律」中,政府、企業和教育機構等借用人工智能,對個人私隱、自由造成的侵犯,成為防止人工智能傷害人類的關鍵。