【科技.未來】防偽研發競賽展開 單靠科技足以打擊深度造假?

撰文:
最後更新日期:

當deepfakes假得愈來愈真,人腦記憶又不可靠,一些科學家和初創正研發技術應對。

但是,單靠技術,又是否足以杜絕假影片、假新聞?

雖然deepfake愈來愈逼真(前文:【科技.未來】Deepfake假得迫真 深度造假模糊真相什麼才可信?),但並非毫無辦法揭穿和辨別它們。加州大學栢克來大學(UC Berkeley)資訊學院教授Hany Farid在過去二十年一直研發法證科技判斷圖像真偽,最近更成功監察影片中人物的一些極細微變化,例如臉孔會隨血液流通而變色,這是deepfake現時未能做到的。但其同事 Alexei A. Efros 的學生Jacob Huh指出:「問題是若你能辨認deepfake的漏洞,你就能修復它。」

理論上,造假者只要取得識別方所用的網絡,加到其GAN作為鑑別者,就能生成出避過「法眼」的deepfake。Farid擔心愈來愈難單靠辨認技術上的改進揭穿deepfake,因為會被機器學習的速度追上:「以往鑑別技術領先造假技術約兩年,但現時只有兩至三個月。」他曾撰文建議,研究人員需保密其最新技術一段時間。

Farid認為,像鈔票般定下大量辨認指標將有利於deepfakes鑑別一方;但他也擔心,辨認技術上的改進,將被機器學習的速度追上。(電影《無雙》劇照)

其他界別亦爭相研發防偽技術。美國國防部國防高等研究計劃署(DARPA)的Media Forensics計劃正創造一套自動系統,以三個層次分析真偽:第一層尋找圖片的電子指紋,例如某種相機型號獨有的雜訊或壓縮痕迹;第二層看物理上有沒有錯誤,例如不合理的光線、反光;第三層則是影像的「語境」,例如檢驗天色,分析一條聲稱是某日某時某地的足球比賽影片,是否與當天天氣和時間脗合。

美國初創公司Truepic則研發了手機應用程式,用它拍攝的照片將自動上傳到其伺服器並加密。Truepic行政總裁Jeffrey McGregor解釋:「只要對比手機位置、氣壓感應器、附近發射站等數據是否脗合,就可知照片真偽。」最近便有敘利亞民眾以Truepic記錄內戰慘況,被半島電視台用來製作新聞片段:

現時Truepic的最大客戶是保險公司,負責驗證客戶水浸車或風災爆玻璃是否屬實;哈薩克一間建築公司亦用來給員工上下班自拍打卡。McGregor希望擴展至任何有「信用空隙」的行業,例如租賃物業、網上相親等,最終達致「在光子進入鏡頭一刻就開始驗證」。

英國初創公司Serelay所用的方法與Truepic類似,但Truepic因怕用戶在某些情況下需要刪除敏感照片而備份,Serelay則希望消除用戶對私隱的疑慮,故不會像Truepic般儲存整張照片到伺服器,而只儲存該照片的「數碼指紋」。

Serelay可辨識出,原圖(左)中的LGBTQ彩虹旗被修走了(右)(Serelay官網示範圖片):

這場真假角力仍未知鹿死誰手。Farid分析,定下大量辨認指標將有利於鑑別一方,因為這樣deepfake就要像造假銀紙般模仿水印、凸字、變色墨水等防偽特徵,憑deepfake現時的算法難以做到。但偽造者在發布上有優勢,例如網上曾有一條老鷹叼起小孩的影片,即使被揭穿為偽造,仍有數以千萬瀏覽量。

社會氛圍散播陰謀

由初出現時令人感到「嘩,這真厲害」,到現時變成「天啊,這將破壞民主」,deepfake的發展迅速令Farid感到驚訝。Efros認為這是影片的緣故,如果是圖片就無人理會。

Farid憶述,很多年前他撰寫了一篇論文——關於Lee Harvey Oswald一張廣為人知的照片:Oswald站在自家後院,用手握着他後來用於刺殺美國前總統甘迺迪(John F. Kennedy)的步槍。

Lee Harvey Oswald廣為流傳的照片,一直被陰謀論者認為是偽造照片。(Wikimedia Commons)

不少陰謀論者一直認為這張照片是假的,雖然可疑之處甚多,但Farid以3D模型發現其實只是光線問題,疑點皆可解釋。「面對陰謀論,我也成了陰謀的一部分。最初只是我,後來我爸在電郵跟我說,有人把他也當成陰謀的一份子。我爸是柯達(Kodak)的化學研究員,而柯達研發了Abraham Zapruder(拍下了甘迺迪遇刺錄像)所用的器材。」

因此,即使Farid正致力研發新的辨識方法,他認為新科技並非解決deepfake危機的最終答案。他分別對《衛報》和《紐約客》說:「問題不止在於deepfake技術愈來愈好,而是整個社會共同認識事物和判斷真偽的過程受到挑戰」,「我們固然需要科技上的解決方法,但我不認為它們能完全解決問題。我認為這是社會的問題,是人的問題。」

經社交媒體催化,網絡充斥假新聞。圖為上月底一名示威者在英國倫敦國會外,要求Facebook創辦人朱克伯格(Mark Zuckerberg)處理假新聞亂象。(視覺中國)

Farid所說的「人的問題」,可能包括deepfake會與假新聞一樣,經社交媒體催化,如病毒般迅速擴散。美國麻省理工學院曾研究2006至2017年間在Twitter上散播的虛假內容,發現不論任何類別,假的資訊卻比真的內容傳得更遠、快、深、闊,重推(retweet)比率高達70%,觸及的人數多至1,500,傳播速度快6倍。Farid批評:「這些公司的商業模式只為營造注意力,是一種毒藥。」

這種現象或呼應了一些科學家對人類記憶演化的假設:我們容許虛假記憶的存在,可能因為有助我們在群體中產生一致的真實感。紐約The New School的集體記憶研究專家Bill Hirst解釋:「所有記憶扭曲都讓我們創造出一個共享的記憶,這段共享記憶讓你和我產生共同的觀點,從而增加集體身份認同。」

外國曾有90後集體記錯童年回憶電影《Shazaam》,並否認因綽號Shaq的NBA球星奧尼爾(Shaquille O'Neal)主演電影《Kazaam》而記錯,堅稱真有其事。(Amazon圖片)

《新政治家》(New Statesman)在2016年曾報道一宗網絡奇聞:2009年,有網民在網上問是否有人記得九十年代初有一齣由美國諧星Sinbad主演的電影《Shazaam》。當時沒有人有印象,兩年後才有Reddit網民說有這齣電影,但大部人仍抱有懷疑。

直到2015年,一篇有關「曼德拉效應」的報道在網上廣泛流傳後,電影再次成為Reddit網民討論對象,很多網民表示清楚記得有這部電影,又說記得Sinbad打扮成精靈的模樣。然而,這部電影根本從未存在過,但不少網民拒絕相信這一事實,甚至有網民得知真相後說「覺得自己童年的一部分被偷走了」。

Frenda認為,Reddit本身就是這種曼德拉效應的源頭,社交媒體令相似的人聚在一起:「而任何方式的證實都會強化你對某件事的記憶,不論它是真是假,也強化了你對記憶的信心。」結果,這群堅信《Shazaam》存在的網民共同構成了虛假的記憶。

演員Sinbad在Twitter發文笑稱,乾脆真的拍一套《Shazaam》來終結這場網絡流言:

弄假成真、水落石出?

deepfake令未來危機四伏,但Farid的經歷或可給我們帶來一絲希望。他在2011年接到一名父親的電郵,請求他幫忙替其子緝兇。那個兒子三年前坐順風車時,不知為何遭車內的人槍殺。附近的監視器雖然拍到兒子走近汽車,但鏡頭像素極低,兇手樣貌、車牌都十分模糊,Farid當時也愛莫能助。

幾個月後,Farid忽發奇想,用同款的鏡頭拍攝大量車牌照片,雖然像素低,但或許能從中看出規律。然而,車牌模糊的原因還受字形、光線、車牌設計等多種因素影響,可能需要數以百萬計的圖像才找到規律。Farid於是叫他的學生在校園內拍攝了數百張車牌照片,然後用他自製的生成模型,幾星期後合成出幾千萬張獨一無二、極為逼真的車牌圖像。

然後他們訓練神經網絡解讀模糊的車牌影像,成功鎖定車牌最後三個數字。今年夏天,警方憑Farid的推算結果收窄搜查目標,最終發現與目標車輛有關的其中一人涉及另一宗罪案,終讓這宗懸案有了新進展。

「假」到極致,原來也可能導出真相。

上文節錄自第140期《香港01》周報(2018年12月3日)《「深度造假」崛起 還有什麼可相信?》。

更多周報文章︰【01周報專頁】
《香港01》周報,各大書報攤及便利店有售。你亦可按此訂閱周報,閱讀更多深度報道。



X
請使用下列任何一種瀏覽器瀏覽以達至最佳的用戶體驗:Google Chrome、Mozilla Firefox、Internet Explorer、Microsoft Edge 或Safari。為避免使用網頁時發生問題,請確保你的網頁瀏覽器已更新至最新版本。