人工智能尋找有可能自毀者 Facebook設輕生警報系統是好是壞?

撰文:陳博悟
出版:更新:

人工智能是否可以幫助減少自殺個案?2017年初,Facebook網站上出現數段「直播自殺」的影片,令Facebook飽受輿論批評。過了一段時間後,該公司決定在全球多地展開大型「反自殺」計劃,就是設立自殺警報系統,利用人工智能偵測有可能輕生的用戶,然後及早通知警方,希望拯救他們。
Facebook指稱,自系統使用以來已有數以千計的個案。不過也有專家認為,此機制同時帶來私隱、治安和醫療上的負面影響。

世界多地的警局在過去18個月,都分別收到來自Facebook的類似自殺警報,指出有人在網上發布自殺相關的帖文和片段,希望警方出動「救人」。在Facebook面臨美國、加拿大和歐盟的有關用戶私隱的調查之際,這網上平台又增加了一個「精神痛苦仲裁者」的角色。

AI運算貼文自殺風險分數

Facebook在2018年9月公布「自殺風險分數系統」(suicide risk scoring system)的運作流程圖。公司稱要建立一套認知系統,讓電腦可自動運算與自殺有關的留言和貼文字眼等。如果電腦發現帖文的自殺風險屬高分水平,便會通知人手檢閱員,由他們決定是否需要聯絡警方協助。

Facebook行政總裁朱克伯格(Mark Zuckerberg)2018年11月曾表示,這系統使救援人員迅速協助有需要人士,包括全球約3500人。事實上,Facebook的機制和派駐警局的員工也確實成功透過監察「直播自殺」的影片,協助警方找出自殺者的所在地,試圖防止悲劇發生。

Facebook預防自殺機制:Facebook 2018年9月時發布文章,顯示電腦如何運算出有高自殺風險的帖文。電腦接收信息後,會由分級器(classifers)分配數據,經過「隨機森林演算法」(Random Forest Algorithm)計算風險分數,再按分數高低判斷應否發送至人手檢閱員。至於檢閱員則負責決定最終是否要聯絡警方協助。(Facebook 官方網站照片)

然而有心理健康專家認為,Facebook的機制讓員工直接聯絡警方出動,可能令本無意圖自殺,或只想引人注目的人士被迫接受精神病評估,甚或被捕。

法律學者馬克斯(Manson Marks)在即將刊於《耶魯法律雜誌》(Yale Law Journal)的文章指出,Facebook的自殺風險評分軟件和聯絡警方的做法,有可能令部分事主被迫強制接受精神病評估和接受藥物治療。

專家:負責員工資歷認證成疑

馬克斯12月20日在《華盛頓郵報》發表文章指,Facebook沒有透露負責項目的員工接受了什麼培訓,也不清楚他們擁有什麼資歷和牌照,亦不知他們以什麼準則去判斷是否通知警方。

他認為,把防止自殺的人工智能(AI)技術與預防的做法連繫起來,令人感到不安。他指出,派出警員進入民居是需要有非常高的門檻。

他又質疑,部分與健康照料工作無關的私人公司競爭開發預防自殺的科技,把它當作專賣的交易秘密,但由於現時並無相關監管,這或令人們的私隱、安全和自主,甚至這個工具本身陷於風險。

(紐約時報/華盛頓郵報)