【科技.未來】分辨deepfakes:軍備不對等的攻防戰

撰文:
最後更新日期:

今年5月,一條影片在美國的社交媒體上瘋傳,僅在Facebook就錄得數百萬人次觀看,連美國總統特朗普的私人律師朱利亞尼(Rudolph W. Guliani)也急不及待在Twitter轉發。

影片中,正在演講的美國眾議院議長佩洛西(Nancy Pelosi)說話結巴,咬字含糊,情況引人質疑。

原來這條影片經過刻意篡改。美國明年將會舉行總統大選,今次事件再次敲響了假新聞可能左右選舉的警號,尤其是使用人工智能(AI)、更為像真的「深度造假」(deepfake)影片日益容易製作。

科學家正努力研發各種辨識deepfake的技術。到底這場打擊deepfake之戰,可以如何獲勝?

為了打擊deepfakes,科學家正着手研究各種辨識真偽的方法。加州大學柏克萊分校 (UC Berkeley) 聯同南加州大學(USC),開發了一套AI偵測系統,它經過大量政要影片「訓練」後,已可看出政要的「軟性生物特徵」(soft biometric signature)—當說話時,每個人都會以獨特而微細的方式移動身體、頭部、雙手和眼睛,甚至嘴唇,這些動作都在潛意識之下進行,人們不為意自己有這些動作,也不會第一時間意識到別人做這些動作,現時的deepfake技術亦未有留意到這些地方,因而可以透過觀察這些特徵,辨別影片的真偽。

系統又從特朗普、美國前總統奧巴馬等人的YouTube片段,找出他們頭部動作、說話規律與表情之間的關係。例如當奧巴馬公布壞消息時會皺眉,並傾向低頭,宣布好消息時就會傾向昂頭。這些數據會用來建造每個人的模型,當一段新的影片出現時,就可用該模型分辨片中的奧巴馬是否有相同的說話規律、頭部動作和表情,從而得知影片的真偽。

有科學家正針對總統參選人如拜登(圖)和沃倫的肖像,以及早防備deepfakes。(Getty Images)

為了測試「軟性生物特徵」, 加州大學柏克萊分校計算機科學家Hany Farid與團隊特地製作了特朗普、希拉里和民主黨總統參選人沃倫(Elizabeth Warren)等人的deepfake。該系統在辨識各種偽造方式,例如真人模仿惡搞、在社交媒體很熱門的「換臉」、嘴唇同步、把頭移花接木至另一身體等,都有不錯表現。Farid說,只要是在訓練時看過的名人,系統辨識deepfake的準確率可達95%;現時,系統分辨出真實影片的準確率亦為95%,他希望在未來六個月提升至99%。

Farid已開始為2020年美國總統參選人建立一套相同系統,包括前副總統拜登(Joe Biden)、沃倫和參議員桑德斯(Bernie Sanders)。Farid向《CNN財經》透露,希望能在12月推出這套工具,讓記者能在網站查核影片的真偽。

紐約大學坦登工程學院針對另一「死穴」,希望研發出能辨別影片真假的系統。要偵測假影像,一大困難在於數碼影像編碼時並未作防止篡改處理。研究人員於是改動單鏡反光相機或一般手機相機的訊號處理器,然後在每張照片的編碼中加入水印,並訓練神經網絡來負責相機中照片生成過程。當相機感應器解讀射到鏡頭的光線並轉換成高畫質影像時,神經網絡便會在這過程中加入不可磨滅的水印。這些水印主要會加插到特定顏色頻率,即使經過壓縮、調光等常見的後期製作處理,仍然能原封不動,但當影像內容被修改,水印就會有所變化,這樣便可透過鑑證分析,辨出真偽。若要打擊deepfake,便要把技術應用到影片上,研究團隊雖然仍未開始這方面的研究,但稱理論上可行。

也有科學家正研究,在拍攝照片或影片時就加入難以破解的防偽特徵。(Getty Images)

貓捉老鼠的遊戲

不過,辨識deepfake從來吃力不討好。Farid希望媒體取得偵測deepfake的工具,以檢查影片的真偽,但愈多人使用這系統會帶來潛在風險:deepfake創作者或可藉着檢查系統的程式碼,找出應對方法。這正是長久以來鑑識專家面對的挫敗和沮喪,因為就算方法有效,也只是暫時性的。

例如呂思偉去年曾發現deepfake一大關鍵破綻:它們不會眨眼。這在偵查上是重大發現,但兩星期後,他就收到由deepfake創作者送來的電郵,說最新的deepfake已經解決了這問題。對於坦登工程學院提出的方法,美國卓克索大學(Drexel University)資訊鑑別研究員Matthew Stamm提醒:「攻擊者可能會創造一個『深度學習』網絡去除這些防偽記號,允許修改影像,再重新加入這些防偽記號。」

比起製作deepfakes一方,Farid有感現時研究對抗deepfakes的科研勢孤力弱。(Getty Images)

此外,AI圈子素來不重視偵測假新聞,坦登工程學院研究員Nasir Memony說:「偵測這些東西根本無錢可賺。」現時製作deepfake方面的投資遠超偵測deepfake一方,令這場攻防戰的「軍備」極不對等。Farid對此甚為無奈:「我們的『軍備』遠遠不及,從事影片合成的人數與偵測的相比,是100:1。」

Farid坦承,這些偵測技術不足以應付假影片在社交媒體瘋傳:「解決方法不會只靠科技,還需要有專業的報道,以及更好的數碼公民、公司和政策。」

相關文章:

deepfakes淪為政界新武器 或成美國大選隱憂?
製法容易上手 deepfakes層出不窮

社交媒體卸責 如何杜絕deepfakes?
打擊deepfakes無法可依 先向社交媒體開戰

上文節錄自第169期《香港01》周報(2019年7月2日)《威脅日增 美向Deepfake開戰》。

其他Deepfakes及人工智能文章:

Deepfake假得迫真 深度造假模糊真相什麼才可信?
防偽研發競賽展開 單靠科技足以打擊深度造假?

更多周報文章︰【01周報專頁】
《香港01》周報,各大書報攤、OK便利店及Vango便利店有售。你亦可按此訂閱周報,閱讀更多深度報道。



X
X
請使用下列任何一種瀏覽器瀏覽以達至最佳的用戶體驗:Google Chrome、Mozilla Firefox、Internet Explorer、Microsoft Edge 或Safari。為避免使用網頁時發生問題,請確保你的網頁瀏覽器已更新至最新版本。