【科技.未來】deepfake淪為政界新武器 或成美國大選隱憂?

撰文:孔祥威
出版:更新:

今年5月,一條影片在美國的社交媒體上瘋傳,僅在Facebook就錄得數百萬人次觀看,連美國總統特朗普的私人律師朱利亞尼(Rudolph W. Guliani)也急不及待在Twitter轉發。影片中,正在演講的美國眾議院議長佩洛西(Nancy Pelosi)說話結巴,咬字含糊,情況引人質疑。原來這條影片經過刻意篡改。美國明年將會舉行總統大選,今次事件再次敲響了假新聞可能左右選舉的警號,尤其是使用人工智能(AI)、更為像真的「深度造假」(deepfake)影片日益容易製作。一方面,科學家正努力研發各種辨識deepfake的技術;另一方面,美國國會在Facebook拒絕刪除該條影片下,首次召開聽證商討規管之法。到底這場打擊deepfake之戰,可以如何獲勝?

在這條經篡改的影片中,佩洛西於美國進步中心(Center for American Progress)一場會議上發言,不少人看過影片後懷疑佩洛西是否飲醉,或是有什麼原因導致她思緒和神志不清。朱利亞尼在Twitter轉發時更在帖文寫道,「佩洛西是否有什麼問題?她的說話方式很古怪。」

特朗普本人曾在Twitter轉發《霍士財經》(Fox Business)的新聞節目剪輯,該節目引用了另一條佩洛西會晤傳媒的影片,片中的她同樣被篡改成口齒不清,特朗普更在帖文說:「佩洛西在記者會上口吃。」

紐約州立大學奧爾巴尼分校(University at Albany, SUNY)計算機科學教授呂思偉解釋,該段假影片加強了低頻聲音,並保留佩洛西的說話內容及外表,因而有效造成錯誤印象:「改動十分輕微,我認為這是假消息、假媒體其中一個最危險的部份。」

逼真度高 特朗普也轉發

事實上,該段假影片並非使用先進AI技術的deepfake,只是改成以75%速度播放,便成功讓佩洛西變得「口齒不清」。

Deepfake指一些利用「深度學習」(deep learning)製作、像真度極高的虛假(fake)影片,大多數會把片中人的說話或動作改成他沒有說過或做過的事,以用於二創惡搞、電影美術、諷刺,甚至惡意中傷或色情片等等,帶來的影響可大可小。

荷里活影星「神奇女俠」Gal Gadot,曾被人用deepfake技術合成為色情片主角。(視覺中國)

Deepfake使用生成對抗網絡(Generative Adversarial Network,GAN)的AI技術製成,原理是運用兩個神經網絡,其中一個用作生成假影片,另一個辨識其真偽,如此來回訓練和學習,最終便可製作像真度極高、甚至真偽難辨的假影片。當deepfake結合社交媒體後,更衍生了一種全新和極速散播假消息、假新聞的手段。

加州大學柏克萊分校(UC Berkeley)計算機科學家Hany Farid指出:「二十年前,我們在法庭上已對虛假內容表示擔心。但當時我們沒有想過它會在YouTube、Twitter和Facebook直播」;「那段佩洛西的影片一點也不好玩,是刻意中傷她,務求引起混亂,而它成功了。」

佩洛西假影片一事,在2020年美國大選前或是一大警號。(Getty Images)

美國眾議院特別情報委員會主席希夫(Adam Schiff)亦警告下一波假消息的威脅將會來自deepfake:「這條針對佩洛西、技術粗糙的影片(cheap fake)連總統也在Twitter發文分享,是一個警號。」

上月中,眾議院情報委員會召開聽證會,分析deepfake對國家及選舉安全構成的風險。委員會從大學及智庫找來了多名專家組成小組,研究和籌備應對deepfake的策略,以引導政府和社交平台訂立新規範。委員會在一則聲明中表示,聽證會的目標是要「審視透過AI技術製作的虛假內容對國家安全的威脅,並研究可以如何偵測和打擊,以及公、私領域與社會整體應如何行動,以在步入『後真相』的未來,避免這個嚴峻的潛在危機」。

眾議院情報委員會上月召開聽證會,商討如何趕在來年大選前打擊deepfakes。圖為主席希夫(Adam Schiff)。(Getty Images)

馬里蘭大學法律系教授Danielle Citron在會上描繪了一種可能發生於私人公司的情況:「試想像在某公司的IPO(首次公開招股)前一晚,一段deepfake影片出現,內容顯示公司的行政總裁犯罪,若這段deepfake影片廣為流傳,就會導致公司的股價下跌,並損失大量金錢。片段可能在幾日後會被拆穿,但那時已造成了傷害。」

令希夫最擔心的,是deepfake很可能會左右美國明年總統大選的結果,他對有線新聞網絡(CNN)說:「在2016年選舉期間,我最擔心的是俄羅斯會在真文件中夾雜假文件發放,或更差的是在真電郵中加入幾段假段落,這仍然是2020年總統選舉的一大隱憂,但另一大隱憂是,他們有可能使用deepfake。不論假消息從何而來,都反映出網絡對民主的干擾升級,變得愈加危險。」

希夫擔心,deepfake將會影響總統選舉及民主,而這種想法亦非空穴來風。(Getty Images)

2020大選恐噩夢連連?

「考慮到2020年(總統選舉)即將到來,你不需要很好的想像力,也可以預見更多噩夢般的情況,讓政府、媒體和公眾難以分辨什麼是真、什麼是假。」希夫在聽證會上舉出一些可能情況:例如一個由國家機器支持的人製作deepfake影片描述某參選人受賄;在兩國元首沒有會面下,卻流出了刻意偽造的絕密私下交談錄音;一個「巨魔農場」(troll farm,指故意在網上發表惡意和充滿挑釁性言論、從而製造衝突和破壞的組織)以文字生成演算法撰寫不實或煽動性新聞故事,並大舉充斥社交媒體平台。希夫5月在洛杉磯一場活動上又警告,外國勢力或美國本土的政黨完全可以在選舉前幾星期才在社交媒體發放真偽難辨的聲帶或影片,從而左右選情。

希夫這種擔憂有一定根據,在過往的美國總統選舉中,虛假或經篡改的影片「發揮」了重要作用。例如2016年廣傳了一段經剪接的希拉里(Hillary Clinton)影片,讓人以為她在競選時身體不適,更引來一些「專家」誤稱她有腦損傷或其他問題。

加蓬總統Ali Bongo的影片被政敵指是deepfake,更因而引發政變。

Deepfake甚至影響一些國家的政局。去年在中非加蓬共和國,久未露面、因而遭猜測身患重疾甚至已過世的總統Ali Bongo拍攝了一段影片澄清謠言,但該影片卻被政敵質疑是deepfake,軍隊更以此為由,在數天後發動軍事政變,意圖奪權。

更為關鍵的是,假影片不需做到毫無缺憾,仍可以在網上瘋傳。機器學習實驗室Fast.ai共同創辦人Rachel Thomas指出,以現時網絡的性質,使用deepfake影片的假消息活動或會很快收效,因為聳人聽聞的內容才有更多觀眾,會比真相傳得更快更遠。「假消息通常不需要很具說服力,仍能有影響力,尤其是當下。我們是社會動物,最終都會聚到人群中,看看其他人在看什麼。壞分子要影響公眾的對話內容不是太難。」去年,白宮新聞秘書桑德斯(Sarah Sanders)分享了一段CNN記者Jim Acosta貌似向一名見習生動粗的影片,白宮因而取消Acosta的白宮通行證。但仔細檢查後,發現影片經修改,誇大了Acosta的動作。

喬治華盛頓大學網絡及國土安全中心高級研究員Clint Watts補充:「最令我擔心的觀眾不是社交媒體上的年輕人,而是最近才接觸這些科技的老一輩。」

更深層的影響是,影片很可能會無法成為真相的來源。希夫擔心deepfake會製造一種效果,讓人可聲稱內容真實的影片是偽造的,或者經簒改的片段是真實的:「在這種情況下,人們只會相信心儀或支持的政黨才是真相來源,這對於民主極為危險。」這現象被Citron和德州大學法律系教授Robert Chesney稱為「說謊者的紅利」(liar's dividend),即deepfake「可以讓說謊者更容易逃避對於真實發生過的事件負上責任」。

相關文章:製法容易上手 deepfake層出不窮社交媒體卸責 如何打擊deepfake

上文節錄自第169期《香港01》周報(2019年7月2日)《威脅日增 美向Deepfake開戰》。

其他Deepfakes及人工智能文章:Deepfake假得迫真 深度造假模糊真相什麼才可信?防偽研發競賽展開 單靠科技足以打擊深度造假?

更多周報文章︰【01周報專頁】《香港01》周報,各大書報攤、OK便利店及Vango便利店有售。你亦可按此訂閱周報,閱讀更多深度報道。