過濾不當外語內容有障礙 Facebook恐成緬甸散布仇恨工具

撰文:歐敬洛
出版:更新:

社交網絡Facebook是一個面向世界的社交平台,有使用千百種不同語言的用戶。但隨着用戶人數不停增加,Facebook亦曝露了它的弱點:成為散布仇恨暴力、煽風點火的平台。儘管Facebook正努力補救,但明顯力有不逮,特別在一個英語不通的地區緬甸。

羅興亞人繼續成為緬甸境內被仇視的一群,網絡社群包括Facebook充斥着針對羅興亞人的歧視及暴力仇恨言論。(視覺中國)

今年3月,聯合國聲明指Facebook已成為針對羅興亞人,煽動仇恨的平台。Facebook創辦人朱克伯格4月在美國聽證會上表示,他們將會聘請更多懂得緬甸語的員工,針對仇視羅興亞人的言論進行過濾。4個月過去,Facebook似乎還是沒有做出甚麼來。

「就如希特拉一樣,要殺絕卡喇」

路透社今日在緬甸活躍的Facebook群組中,找出了過千條的帖子。其中一條上載着一個羅興亞人開的餐館照片,下方留言寫着:

我們要打倒羅興亞人,就如希特拉當年打倒猶太人一樣!一群死卡喇!

這是一篇在2013年的舊帖,「卡喇」是緬甸對穆斯林的蔑稱。在另一篇帖文中,照片上顯示的是一篇報道羅興亞人與警方衝突的新聞,下方留言寫着:

這群非人類的卡喇狗,孟加拉人,他們是要來搶奪我們的土地,我們的水和侵害我們的人民。我們要把他們滅族!

這是一篇在2017年9月,緬甸針對羅興亞人暴力事件最顛峰時的帖子。其他還有如「燒死他們讓他們早登極樂」、「把他們全殺掉後餵豬」之類。路透社發現這些帶有強烈仇恨的帖子已在Facebook流傳最少9年,部分是朱克伯格在美國出席聽證會後才出現。官方未有任何動作,帖子未被刪除。

Facebook在緬甸有約1800萬名活躍用戶,隨着國家發展手機普及,人數將繼續上升。(視覺中國)

翻譯錯漏百出 機械無法自行辨識

Facebook近年一直被批評後知後覺,長年對自己平台衍生出的潛在問題置之不理,最終演變成為被政治及種族主義利用的宣傳平台。Facebook的網絡平台服務範圍廣闊,操數以千百計不同語言的用戶日常使用Facebook,語言障礙成最大負擔。

Facebook現時過濾和刪除不恰當內容的方法,主要依賴機械自行搜尋過濾。但Facebook是美國公司,他們開發的過濾系統對緬甸語相當不在行,例如一句「要殺死所有你在緬甸看見的卡喇,要他們一個不留」翻譯成英語可以變成「我要在緬甸有個彩虹」,意思完全不通。因此緬甸Facebook只能依賴用戶舉報,再由人手審核刪除。

但最大問題是人手不足,2015年Facebook只有兩位員工懂說緬甸語。路透社報道指今天Facebook已把相關的工作外判,以確保質素和效率。一位Facebook高層拒絕透露該公司有多少位緬甸員工,但肯定地表示以現時來說人手「並不足夠」。

部分緬甸的電話卡以「瀏覽Facebook不計算流量」作招徠,吸引使用者。(視覺中國)

發展中國家可以預見的炸彈

今天雖然並非所有國家都流行使用Facebook,但無疑Facebook是社交網絡平台中最大規模的公司。Facebook已不再只是網民生活的交流平台,而是一個資訊和消息流通之地,具有相當影響力。在歐美這些發達國家,有相對完善的平台及資源供Facebook建立後勤,確保地區服務不被濫用。

但在如緬甸一類的發展中國家來說相當困難,緬甸有約1800萬名活躍Facebook用戶,每星期有數以百萬的留言被標記,甚或遭舉報內容不恰當,這對缺乏資源的緬甸來說極為吃力。

而這實際只是其中一個例子,Facebook在東南亞其他地區同樣流行,如越南、泰國及馬來西亞等。緬甸羅興亞人事件曝露了在非歐洲語言的地區中,Facebook在執行過濾不當內容時明顯力有不逮。而這亦可預見未來,隨着這些發展中國家使用網絡人數上升,負擔只會愈來愈嚴重。而當發生類似羅興亞人事件的時候,Facebook只會再一次淪為煽風點火的工具。