無數「假嬰兒」橫死加沙 以巴衝突湧現大量AI Deepfake偽造照片

撰文:ETtoday
出版:更新:

巴勒斯坦激進組織哈馬斯10月7日大規模突襲以色列致爆發戰爭以來,加沙大量傷亡的平民中有許多是孩童和嬰兒。

如今卻爆出,多張有數百萬次瀏覽的嬰兒橫死血照,其實竟是深度偽造(Deepfakes)的假圖片。

點圖放大瀏覽被指為以AI技術偽造的照片:

+3

美聯社報道,這些利用AI進行深度偽造的假圖片已經有數百萬人次的瀏覽,然而只要仔細一看,就可觀察出其中端倪,例如手指以怪異的方式蜷曲、眼睛有不自然的光線等,這些都是AI繪圖的小破綻。

以色列與哈馬斯的戰爭中,可以痛苦且清楚地看出AI作為政治、輿論宣傳工具的強大潛力,AI被用來創造出逼真的大屠殺照片。

自從10月爆發戰爭以來,這些憑空製造的圖片在社群媒體上廣傳,並被用來誤導輿論和作出不正當的指控。

【相關圖輯】以巴衝突|沒麻藥為兒童截肢 中國無國界醫生在加沙:這裏沒英雄(點圖放大瀏覽):

+38

雖然目前在網路上被熱議的不實指控多數不用靠AI,而是仍然仰賴傳統的消息來源,但進步的科技來勢洶洶,而且受到的監督更少。

這讓AI作為另一種形式的武器潛力變得顯而易見,並且能讓人一窺未來不只衝突,還有選舉和其他大事件的樣貌。

美國商業情報公司「CREOpoint」CEO戈登斯坦(Jean-Claude Goldenstein)表示:「(一切)在變得更好之前,會先變得更糟,非常糟。」

CREOpoint是一家在三藩市和巴黎都有據點的科技公司,他們同樣利用AI技術,但是用來評估網路上各種言論的可信度。不只如此,該公司還建立了一個關於加沙戰場上最受到關注的多個深度偽造事件的數據庫,「照片、影片和錄音檔:在生成式AI的幫助下,情況會升級到你從未見過的地步」。

【相關圖輯】以巴衝突|音樂節多段車Cam影片曝光 男子裝死被發現遭槍殺(點圖放大瀏覽):

+28

在部分案件裏,可見在其他衝突或災難事件中被拍下的照片,會被移植到以巴戰爭中,偽裝成新聞消息。

在不同案例中,AI被用來「無中生有」製造出殘忍景象,像是一張在衝突剛爆發時受到大量關注的照片 ─ 一名嬰兒在爆炸殘骸中大哭,就是假的。

其他生成式AI繪製出的照片和影片,還包括以色列飛彈襲擊後的現場、坦克車駛過已被炸成廢墟的街區,以及人們在殘磚斷瓦中找尋失蹤家人的畫面。

在許多案例中,這些深度偽造的畫面裏都會出現「嬰兒、孩童或家眷的遺體」,它們被設計來盡可能在網路上觸動人們的強烈情感。

【相關圖輯】以巴興戰場面恐怖 見慣風浪記者都崩潰 抱嬰屍痛哭:她被謀殺了(點圖放大瀏覽):

+6

在以色列發動報復侵略初期最血腥的時候,以色列和哈馬斯的兩派支持者都互相指控對方傷害嬰兒和孩童,這時候經過深度偽造的照片一釋出到網路上,瞬間被雙方拿去當作「證據」,證明自己是對的,而對方是殘忍的。

非營利組織、打擊數位仇恨中心CEO阿罕默德(Imran Ahmed)表示,創造這些深度偽造影像的「宣傳工作者」,都擁有觸及人們心底深處最強烈、最衝動的情感與焦慮情緒的技巧。

他說不論是經過深度偽造的嬰兒,或是在其他戰事中真實存在的嬰兒受害者,在觀者眼裡觸發的情緒是一樣的。

AI造成的威脅極大,每當有一場新的衝突、戰事,或是國際社會大事件、選舉季節,都為利用生成式AI製造假訊息提供了嶄新的機會。

這讓許多AI專家和政治科學家警告,明年諸如美國、印度、巴基斯坦、台灣、烏克蘭、印尼和墨西哥等國家和地區,在舉行大選的時候也會受到這類威脅。

【相關圖輯】AI繪圖|吉卜力工作室都要失業?一鍵生成宮崎駿畫風 更難辨真假(點圖放大瀏覽):

+10

隨著生成式AI的「蓬勃發展」,許多新創科技公司都在針對如何識別深度偽造研發相關技術。挪威公司「Factiverse」聯合創辦人阿美利(Maria Amelie)指出,下一波AI浪潮將會是「我們如何核實這些流傳的內容;你如何識別誤導訊息;你如何分析內容去決定它是否可信」。

「Factiverse」建立了一套AI程序,專門識別其他AI程序製造出的錯誤或具有偏見的訊息。類似的程序和計畫很快就會是教育界、媒體界、金融分析界和其他領域感興趣的東西,因為它們可以幫助識別錯誤、抄襲或是詐欺的內容。

雖然已有不少人在研究如何反制和破解這些假消息,但利用AI散布謊言的人似乎總是超前一步。美國電腦科學家、水牛城大學教授都爾曼(David Doermann)表示,若想要有效地回應AI假訊息帶來的政治與社會挑戰,就必須仰賴更厲害的科技和更完善的監管制度。

【本文獲「ETtoday」授權轉載。】


你可能感興趣