【科技.未來】阻止不當內容與自殺 AI協助社交媒體「消毒」

撰文:孔祥威
出版:更新:

假帳號、假新聞、種族仇恨言論、欺凌、暴力……每一個都是近年社交媒體無法迴避的大問題,近期又被指為導致自殺的催化劑,英國一名父親直指Instagram在這方面的失職是女兒自殺的幫兇。難怪Instagram母公司Facebook本月中發表報告和數字,強調藉着不斷改善的人工智能(AI),正在移除平台上的不當內容,包括以辨識自殺內容來提供救助。這種應用也見於Google和微博等社交媒體或科技公司。到底AI如何協助防止不當內容擴散?它預防自殺的成效又有多大?

2017年11月,14歲英國少女Molly Russell在生日前六天於睡房內自殺身亡。父親Ian Russell翻查女兒的Instagram記錄後,發現她瀏覽過大量自殺及自殘的照片。今年1月,他公開指摘Instagram為「幫兇」。英國衞生大臣夏國賢(Matt Hancock)隨即去信Facebook、Google、Twitter等科技公司,警告若無法移除這些內容並訂立更好的保護政策,就會採取法律手段。「這麼容易便可在線上取得這些內容,實在極之惡劣。我毫不懷疑這些材料會對用戶、尤其是年輕人造成傷害。」 夏國賢寫道。

Ian Russell對於女兒自殺,矛頭直指Instagram。圖為英國威廉王子伉儷本月中向他了解。(Getty Images)

Instagram在今年2月初宣布,不再允許社交平台存在任何含有自殘內容的照片和影片,如𠝹手等。含有痊癒疤痕的圖像則不會被完全移除,但卻不會再在搜尋結果、主題標籤(hashtag)和推薦內容上出現。10月底,Instagram再把禁令延伸至含有自殘或自殺內容的繪畫、卡通和梗圖(meme),進一步禁止宣揚自殺的內容。

自殺信息彌漫社交媒體

根據世界衞生組織資料,自殺是全球15至29歲人士第二大死亡原因,近年愈來愈多人認為社交媒體正是青年自殺潮背後的一大推手,特別當媒體報道自殺案件再經社交平台廣傳,這種結合尤其危險。Russell之死也非孤例,馬來西亞一名16歲少女今年5月在Instagram發問「真心重要,幫我選擇,生或死」,69%回應者選「死」,之後她就自殺了。

今年4月,美國維珍尼亞聯邦大學(VCU)媒體及文化學院教授Jeanine Guidry及其團隊在《健康通訊》(Communication in Healthcare)發表了一項研究,發現Instagram上提到有關自殺的帖文或展示了相關圖像,比其他內容有更高的互動(engagement)。賓夕法尼亞大學青少年溝通研究所研究總監Dan Romer的團隊在5月發表研究報告,探討Instagram上的自殘影像如何影響逾700位18至29歲年輕人。他們發現,有60%人在看過這種照片後一個月內想像過自殘,而且受訪人士中只有20%主動在Instagram搜尋過自殘相關內容,換言之,大部份人都是意外看到這些內容的,平台本身看來責無旁貸。

Instagram行政總裁Adam Mosseri坦承,社交平台在預防不當內容散播上,可以做得更多。圖為本年4月底Facebook F8年度開發者大會上,他預告Instagram打擊欺凌的新功能。(Getty Images)

自殺相關的行為似乎也同樣猖獗。英國非牟利反欺凌機構Ditch the Label在2017年的調查顯示,42%受訪青少年用戶表示曾在Instagram上經歷欺凌,是研究中各社交媒體之冠。難怪Instagram行政總裁Adam Mosseri今年7月在網誌上表示:「在預防Instagram上的欺凌,以及讓被欺凌目標更有能力為自己站起來,我們可以做得更多。」

Facebook亦在9月初的網誌聲稱會採取行動預防青年自殺,社交平台「不再允許自殺影像」,以防止非故意地宣揚自殺,又表示旗下的Instagram將會「更難搜尋到這類內容,並且不會在Explore功能中推薦」。Instagram補充,主動分辨和移除不當內容是重要的措施,因為很多被欺凌者都不會自行舉報,而這有助對那些不斷發表攻擊性內容的用戶採取行動。

兩周前,Facebook發表了《社群標準執法報告》,強調正不斷移除平台上的不當內容。在今年4月至9月期間,Facebook移除了逾32億個假帳號和1,140萬則仇恨言論。同一時期內,Instagram移除了120萬則兒童裸露及性剝削內容。Facebook也把自殺和自殘歸為新的不良內容類別,期內分別在Facebook主平台和Instagram移除了450萬和160萬則這類內容。值得一提的是,在今年第二和第三季,Instagram上分別有77.8%和79.1%自殺內容在用戶檢舉前就已被AI偵測到。

Facebook早前發表報告,聲稱正積極移除各種不當內容,某些更是在有人舉報之前就已被AI主動辨識刪除。(Getty Images)

不過,有人批評這些措施來得有點遲。英國防止虐待兒童協會(NSPCC)行政總裁Peter Wanless說,Instagram採取了「重要一步」,只是,「根本不應等到Molly Russell自殺才令Instagram行動。過去十年,社交網絡一再證明他們沒有做足本分。」美國雪城大學傳播系助教Jennifer Grygiel也批評Facebook疏忽:「自殺高危者不會安全,除非Facebook更嚴肅負起作為全球企業和傳播平台的角色責任。這些應該是很多年前就要有的改變。」

及時拯救潛在輕生者

Facebook和Instagram的成果是依靠AI。Facebook早年依靠用戶檢舉不當內容,再交由人類審查員(moderator)評估並決定是否刪除。但在過去五年,Facebook建立了一支由數百位機器學習專家、工程師和數據科學家組成的團隊,開發演算法來自動辨識不當內容。技術總監Mike Schroepfer說,在2014年前仍很不可靠的圖像辨識技術,現時已「驚人地好」;而在2017年針對仇恨言論而引入的語言理解也正在進步,儘管成果仍屬初期。

在同年11月的網誌,Facebook介紹了如何使用AI在可能含有自殺內容的帖文或留言中找出規律。例如「你還好嗎?」「我可以幫忙?」之類,都可以反映出用戶有自殺想法。Romer認為Facebook使用AI無可厚非,「因為這些內容實在太多。」而AI可以大大減輕Facebook現有人類審查員的工作量,減輕這些廉價合約工每天審查各種暴力、裸露、自殘等令人不安的內容所承受的精神壓力。

Instagram使用了Facebook名為DeepText的AI工具,那是設計來理解和解讀用戶所用的語言。Instagram最早在2016年開始用這工具來尋找垃圾訊息,翌年訓練它來找出和封鎖攻擊性留言,包括種族性辱罵。到去年中,Instagram用它來找出留言中的欺凌內容,同年10月再擴展至照片。人類審查員要預備訓練數據來教導機器,他們分辨了數以十萬則內容是否含有欺凌成分並將之標籤,再輸入到一個分類器(classifier)讓機器學習。這些起初數據固然不足以讓它輕易應對往後所有情況,但隨着它嘗試分辨和檢舉,再由人類審查員把關判定,準確率就會不斷提升。

Facebook如何以AI辨識不當內容,希望能及時為自殺者提供協助。(香港01製圖/參考:Facebook)

現時有三個分類器掃描Instagram上的內容,分別分析文字、照片和影片,實時偵測,每小時舉報內容一次。雖然分類器對於照片和影片較為乏力,而分析檢舉內容的工程師和審查員仍在尋找規律,但已發現一些端倪。例如,分割的畫面較多牽涉欺凌,尤其是當機器能偵測到一邊是人類、另一邊是動物。一幅有三個人、其中一人臉上畫了一個紅色大交叉的照片也很有機會涉及欺凌。有沒有用濾鏡也是提示,因為欺凌者一般較少會「美化」這類行為。Facebook產品管理總監Catherine Card在去年9月的新聞稿中解釋:「它還會看帖文下的留言。被判定為有迫切傷害的嚴重案件,傾向會有留言如『告訴我你在哪裏』或『有沒有人有他/她的消息』之類;而較不嚴重的情況,留言則較多為『隨時找我』或『我一直都在』之類。」

上月,Instagram建基於這AI辨識推出兩項新功能。其一是留言警告,例如當用戶發帖或留言時輸入欺凌或仇恨內容,就會彈出提示:「你是否確定要發表?了解更多。」若按「了解更多」,就會出現另一提示:「我們希望大家重新考慮,是否要發表一些類似於其他人檢舉過的留言。」用戶可以不理這訊息而堅持發表,不過,Instagram在初期測試中發現,「當他們有一個機會反思,有些人會取消原本的留言,並發表較不具傷害性的內容。」

與之配合的是「限制」(restrict),可讓被欺凌的用戶在毋須封鎖他人的情況下過濾不當留言。「我們從年輕人得知,他們不太願意封鎖、取消追蹤或檢舉欺凌他們的人,因為它只會令情況惡化,尤其是當他們仍會在真實世界中遇上欺凌他們的人。這些行動也會令被欺凌者較難追蹤欺凌者的行為。」 Mosseri說。當用戶被限制後,他們的留言就只有自己能看到,最重要是被限制的人不會知道自己受某人限制,也不能知道限制他的人是否在Instagram上線,或是否已讀他們的私訊。

其他熱門社交平台和科技公司,也陸續出現了類似的AI應用來阻止不當言論和宣掦自殺的訊息。荷蘭阿姆斯特丹自由大學(Vrije Universiteit Amsterdam)AI學者黃智生在去年成立「樹洞救援隊」,迅即獲幾十名同行和醫護人員加入。他研發的程式監察微博上的「樹洞」,即年輕人留言說心事的熱門之處,解讀字詞找出意圖自殺的用戶,然後分為10級的自殺風險。6級以下一般都只是發表一些厭世文字,6級或以上就會傳送警號至救援隊,9級和10級分別代表有明顯自殺意圖和正在試圖自殺,這時救援隊就會報警或通知親友。據英國廣播公司(BBC)報道,他們在過去約一年半內阻止了近千次自殺行為,去除重複案例,救回逾700名輕生者。

為LGBTQ群體提供諮詢的Trevor Project,希望以Google的AI技術改良其各種服務,最終自動辨識自殺風險加快救援。(Getty Images)

加拿大麥基爾大學(McGill University)研究員以人氣論壇Reddit上特定群體如何以特定字眼針對女性、黑人、肥胖人士等,來教導演算法偵測仇恨言論。領導研究的Haji Saleem解釋:「我們發現,需要為不同的仇恨言論目標設立獨立的過濾器。」研究聲稱這演算法比起單純訓練成找出關鍵字的工具更準,而且能找到較不明顯的不當言論,例如使用「動物」之類的字眼。

至於另一互聯網巨頭Google,雖然現時用戶若搜尋某些與自殺方法相關的字眼,搜尋結果都會當眼地顯示防自殺機構的救助電話,但作用有限。今年5月,Google向非牟利組織Trevor Project提供了150萬美元,後者專門向LGBTQ青少年提供諮詢,包括電話、短訊和即時通訊平台。他們計劃以機器學習改良文字短訊和即時通訊。Trevor顧問諮詢會以問題「發生什麼事?」來開始。AI會按照青年與輔導員展開對話的問答,以及對話結束後輔導員的風險評估,透過比較兩項數據來學習,最終目標是AI從致電者對起始問題的回答就能辨別出高危人士,並立即連接至真人輔導。

繼續閱讀︰

社交網絡以AI「消毒」 但AI可判斷「不當」內容?

相關文章︰

Facebook約會功能力撼Tinder 還原約會基本步?

Facebook推「相睇」功能 到底在盤算什麼?

Facebook做免費媒人 代價是你的私隱數據?

上文節錄自第190期《香港01》周報(2019年11月26日)《阻止不當內容與自殺 AI協助社交媒體「消毒」》。

更多周報文章︰【01周報專頁】

《香港01》周報,各大書報攤、OK便利店及Vango便利店有售。你亦可按此訂閱周報,閱讀更多深度報道。