Instagram將推新功能模糊裸照訊息 保護未成年人防影像性暴力

撰文:友條新菜
出版:更新:

Instagram/IG將推新功能模糊裸體照片訊息 保護未成年人防影像性暴力|Instagram將推出新功能,將在未成人的聊天對話中模糊發送的裸照,以免遭受性暴力或詐騙。

隨住社交平台應用普及,認識陌生人的機會也越來越多。在享受交友的過程之中,亦連帶著不少風險。近日Meta宣布社交平台Instagram準備推出一項新的安全功能,可以模糊訊息中的裸照,以保護未成年人用戶免受虐待和性剝削詐騙。這項新功能將為青少年用戶預設啟用,一旦檢測到包含裸露的圖像就會模糊處理,亦可以阻止用戶發送這些圖像。

Instagram將推出模糊裸照(Meta)

一直以來 Facebook 和 Instagram等社交平台都被指對年輕用戶造成了傷害,讓未成年人暴露於不法分子的視線中。現在Instagram正推出的新功能,會按照用戶輸入的生日資訊去啟用功能,並鼓勵未成年用戶開啟。

根據《華爾街日報》報道,新功能將在未來幾週內進行測試,預計在未來幾個月內在全球推出。 Meta 表示,該功能會使用machine learning (機械學習)來分析 Instagram訊息中發送的圖像是否包含裸體,除非被檢舉,否則公司將無法存取這些圖像。

啟用保護後,收到裸照的 Instagram 用戶將收到一條訊息,告知用戶不要被迫回應,同時可以選擇封鎖和舉報寄件者。 Meta 在聲明中表示:「這項功能的目的不僅是為了保護用戶在私訊中被迫看到裸體內容,也保護用戶免受詐騙者的傷害,因為詐騙者可能會發送裸照來誘騙對方發送自己裸照作為回報。

收到裸照的 Instagram 用戶將收到一條訊息,告知用戶不要被迫回應(Meta)

另外嘗試透過私訊發送裸照的用戶還會看到一則訊息,警告他們分享私密照片的危險,而另一個警告訊息則是阻止用戶嘗試轉發收到的裸照。

透過私訊發送裸照的用戶還會看到一則訊息,警告他們分享私密照片的危險。(Meta)

這是 Meta近年致力研究兒童保護措施上,除了今次的新嘗試,Meta於上年採用一項新工具,可以將未成年人的色情圖片下線,並於今年初限制年輕用戶接觸自殺、自殘、飲食失調等有害話題。未知這些政策是否能減少青少年使用社交平台的負面影響。

消息來源:The Verge