網絡資訊真偽誰說了算? Facebook的「清道夫」大軍

撰文:鄭逸雯
出版:更新:

一排排整齊的辦公桌,電腦熒幕背後是一張張年輕而疲憊的面孔,連續數小時的工作時間中, 唯一的任務便是按下「Delete」鍵。這些辦公室或位於美國矽谷某幢大廈,或隱藏在菲律賓、印度某條尋常街巷。共同點在於,這裏的職員均隸屬Facebook的「內容仲裁」(content moderation)團隊,負責識別和刪除平台上的不當內容。

他們需處理的內容由文字至圖片、影像,涵蓋一切違背Facebook「社群守則」的貼文,例如色情、暴力、種族歧視、仇恨言論,自然也少不了所謂的「假新聞」。公司組建一支由法律、政策、公關領域專家組成的團隊,制定出這套囊括數百條款的規則,而具體執行則交給分佈在美國海內外的「內容仲裁」大軍。

根據英國廣播公司(BBC)報道,大約3萬名職員從事這份工作,他們大多並非直接受僱於Facebook,因平台將這項業務交給數間承包公司處理。關注這一群體的美國學者羅伯茨(Sarah T. Roberts)調查發現,這些「內容仲裁員」多是受過良好教育、剛從大學畢業的年輕人。

圖為Facebook設在德國柏林的辦公室。(Getty Images)

羅伯茨表示,儘管「內容仲裁員」通常被視為初級職位,但員工們抱有自豪感,因認為自己的工作能帶來「更大的福祉」(to the benefit of the greater good),即維護美好的社交網絡環境。也有不少人相信,這份工作能成為進入科技行業的踏腳石。

判斷孰真孰假 一份「守則」是否足夠?

不過,一班職員很快發現「清道夫」的工作並非易事。除卻工時長、任務重,最大難關也許是最關鍵的任務——判斷一則資訊孰真孰假。面對魚龍混雜的社交網絡貼文,這項工作無疑是相當大的挑戰。

「內容仲裁員」排查的貼文主要來自兩大途徑:Facebook用戶舉報,以及仍在研發和完善的人工智能系統。儘管有公司制定的守則指引,職員在判斷具體個案時也難免受到個人觀點影響,尤其是當碰到具爭議的內容,例如仇恨言論(hate speech)便是容易產生意見分歧的一個類別。再加上Facebook的規則並非一成不變,職員處理每條貼文的時間也相當有限(通常以秒計算),種種因素均加大這份工作的難度,據指他們的時薪由15美元(約117港元)起。

Facebook上有大量違反平台規則的賬號和貼文,內容涉及恐怖主義、不實資訊、色情暴力等等。(AP)

人非機器,「內容仲裁員」的個人判斷會隨認知變化而改變,令情況更加複雜。不少職員接受傳媒訪問時承認,接觸一些陰謀論(conspiracy theory)的時間愈長,愈容易被它們打動。例如有人開始相信美國911事件並非恐襲,或是質疑猶太人大屠殺(The Holocaust)的真實性。

乍聽讓人匪夷所思,但一班員工們每日也被這些訊息包圍,而陰謀論的論述中不乏有說服力者,要在打假與保障用戶言論自由之間作出適當判斷,其實並不容易。

為保障人工判斷的準確性,Facebook要求員工在碰到違反多項守則的案例時,逐個列出刪除它的原因。公司還計劃推出工作模擬系統,讓「內容仲裁員」進行訓練,再接受個人化指導。

圖為Facebook創辦人兼行政總裁朱克伯格(Mark Zuckerberg)。(Getty Images)

患上PTSD 職員權益需保障

如果說Facebook致力於打造一個超越地區、文化、語言限制的全球社群,那麼以不實資訊為首的「違規內容」則是這個網絡社會的陰暗面。正因如此,公司在涉及這班「清道夫」的問題時一貫三緘其口,背後自然是出於品牌管理、維護企業形象的考慮。大部分「內容仲裁員」入職時都要簽署保密協議,因此與家人朋友也甚少談論工作內容。

長此以往,職員每日面對兒童色情、暴力欺凌等殘忍內容,卻缺乏紓解情緒的途徑,有人工作數月後便染上酗酒、吸毒等惡習,嚴重者更出現創傷後壓力症候群(PTSD)的徵兆。2018年,有一班「內容仲裁員」便入禀加州法院,狀告Facebook讓他們患上PTSD。

也許終有一天,社交網絡的內容審查工作能夠全權交給算法、AI負責,不再需要人工判斷。在那一天到來之前,這批網絡「清道夫」的權益由誰來保障,他們的前途又在何方,值得業界深思。