Facebook審查制度大公開 刪Po或不刪Po? 員工10秒下決定

撰文:陳奕謙
出版:更新:

英國《衛報》取得Facebook內部指引,他們會刪走不少叫人「去死」、宣揚虐待的內容,除了部分豁免之外。有審查員認為資訊太多處理不來,他們往往只得10秒時間就要下決定,過於倉促。
文件亦顯示,Facebook每星期的假帳戶舉報多達650萬。

facebook全球用戶接近20億,是最有影響力的社交媒體。(路透社)

你有試過在Facebook看到不安的內容,想舉報給Facebook希望他們刪除嗎?Facebook全球用戶近20億,每分每秒都有數之不盡的內容發布在其上,總有不恰當的圖、文或影片,或許過於血腥,或許色情不雅。

《衛報》周一(5月22 日)頭版報道,他們取得了facebook的內部指引文件,文件超過100份,既有文字指引,也有工作流程圖。不少都舉了例子,指導審查員是否要刪除內容。

  不可宣揚虐待、殺人或相片裸露 惟有例外

如果有內容宣揚虐待,例如以虐打動物為樂,那是不可以。但如果能夠引起大眾關注心理健康,則不會刪除有關內容;而指引亦說明若宣揚殺害某個指定人物需被刪帖,但若是無指定特定人物,則可予以保留。

Facebook早前因為新聞相中有人裸露而刪走內容,引發不少人爭議。在《衛報》取得的指引中,明言有新聞價值的相片即使有裸露情況也是可以,例如納粹大屠殺的照片。不過部份準則被認為相互矛盾,模稜兩可。

《衛報》詳盡披露facebook內部守則,甚至設了一個小測驗給讀者,讓他們嘗試審查內容。(衛報)

  傳媒曾開假帳戶 收到恐怖份子資訊

近年愈來愈多關於Facebook內容敏感,審查制度不完善的事例。一方面有人認為Facebook要負責任,不能宣揚暴力、色情等內容;但另一方面也有人高舉言論自由的旗幟,憂心Facebook這間企業會充當了社會審查者的角色。

不少傳媒都一再測試Facebook的準則,例如BBC早前指摘有女童淫穢照片竟獲「放生」;《泰晤士報》在4月時曾經開了一個假帳戶,報稱是30多歲的英國人,再加伊斯蘭聖戰份子做朋友,這個假帳戶就收到不少支持ISIS的影片和資訊,《泰晤士報》認為情況值得關注。

《衛報》這次取得過百份內部文件,讓外界首次一窺Facebook審查機制的運作。《泰晤士報》、《電訊報》都有引述報道。

不可錯過:Facebook再被揭監察用家情緒 社交媒體研究道德底線可推到幾低?

朱克伯格曾否認假新聞能影響大選,但最近承這個想法是錯誤的。(美聯社)

  人手不足 審查員倉促下決定

有Facebook的內容審查員向《衛報》表示,「Facebook無法控制內容,發展得太快,規模太大」,他們往往只得10秒就要下決定是否要篩走內容。Facebook目前有4500名審核員,未來計劃增請3000人。他們的環球政策主管比克特(Monika Bickert)說:「不論你如何劃界,總有灰色地帶。例如諷刺、幽默與不合宜內容之間經常有灰色地帶。很難決定網站可或不可呈現什麼。」

除了敏感內容之外,內部文件亦顯示,Facebook每星期收到多達650萬個假帳戶舉報。Facebook與廣告生意息息相關,每個「likes」和「shares」都有市有價,所以充斥了不少假帳戶,為人詬病。

不可錯過:【Facebook 13歲】壟斷資訊 販賣私隱 FB誕生13載影響你多少?

(綜合報道)