【科技.未來】製法容易上手 deepfake層出不窮

撰文:孔祥威
出版:更新:

今年5月,一條影片在美國的社交媒體上瘋傳,僅在Facebook就錄得數百萬人次觀看,連美國總統特朗普的私人律師朱利亞尼(Rudolph W. Guliani)也急不及待在Twitter轉發。影片中,正在演講的美國眾議院議長佩洛西(Nancy Pelosi)說話結巴,咬字含糊,情況引人質疑。原來這條影片經過刻意篡改。美國明年將會舉行總統大選,今次事件再次敲響了假新聞可能左右選舉的警號,尤其是使用人工智能(AI)、更為像真的「深度造假」(deepfake)影片日益容易製作。

朱利亞尼得悉自己轉發的是假影片時這樣解釋:「我沒有理由認為它是被修改過的。你從哪裏可以知道片段是不實的?我如何可以知道它是假的?」他稱自己沒有看過原片,是在別人告訴他影片有問題後才刪除帖文,雖然聽起來像是狡辯,但並非全無道理。隨着造假技術進步,假影片將會愈來愈真,愈來愈易製造,並愈來愈難分辨出影片孰真孰假。

紐約州立大學水牛城分校人工智能研究院教授David Doermann指出,deepfake和假新聞的威脅將會愈來愈大,因為製作技術愈趨普及,過往需要昂貴器材和軟件製作deepfake,現時只要「一個高中生和一台不錯的電腦」便可做到:「已經不再需要AI專家,新手也可以做到。」

三星(Samsung)位於俄羅斯莫斯科的AI中心在5月公布了一項新技術:其AI系統只需極少的數據,甚至只需要一張臉部照片,就可生成像真度高、可動的人像影片,若加添少許數據,例如8至32張照片,便能更進一步提高像真度。

三星以公開資料庫VoxCeleb的數據訓練演算法,內含逾7,000張從YouTube影片收集而來的名人影像,讓演算法學會辨識眼、嘴形、鼻樑形狀和長度等人面特徵,繼而用知名人像來製作動畫。例如逝世時動畫攝錄器材還未面世的俄國大文豪杜斯妥也夫斯基(Fyodor Dostoyevsky),就在一條黑白影片中說話;達文西(Leonardo da Vinci)名作《蒙羅麗莎》(Mona Lisa)中的女士不只懂得微笑,還可以說話,並帶有不同的眼神;藝術家達利(Salvador Dali)那標誌性的鬍子也會隨着他說話而抽動。

史丹福大學則與普林斯頓大學、德國馬克斯普朗克信息學研究所(Max Planck Institute for Informatics),以及Adobe Research合作,開發了另一套AI系統,只要改動影片逐字稿,AI就會以影片中人的聲韻並配合嘴形,讀出所需的對白。他們試過將電影《現代啟示錄》的著名對白「我喜歡清晨中凝固汽油彈的氣味」改成「我喜歡清晨中西多士的氣味」。

製作這種影片涉及幾種技術。首先,研究人員需要掃描目標對象在整段影片中說過的所有音素(phonemes,發音的基本組成部份),接着把這些音素與他的發音嘴形配對,最後還要為目標人物的下半邊臉建立立體模型。做好這些工作後,當研發人員修改影片的逐字稿,軟件便會自動組合這三組數據,重建一條配合文字改動的新影片,然後貼到原有片源來得出成品。

非牟利人權組織Witness項目總監Sam Gregory主張,應該主動出擊對付deepfake,而非被動等待有deepfake出現才處理:「從過往全球對假消息的反應來看,我們明顯需要更好的準備,以應付這個威脅,而非像在2016年(美國總統)選舉出現問題後才作出反應。即使威脅比預期中小,預先做好準備,總好過事後才作出反應。」Gregory指,全球社交媒體應該聯合組成一個「共同免疫系統」,以找出和阻止假影片瘋傳。

相關文章:deepfake淪為政界新武器 或成美國大選隱憂?社交媒體卸責 如何打擊deepfake

上文節錄自第169期《香港01》周報(2019年7月2日)《威脅日增 美向Deepfake開戰》。

其他Deepfakes及人工智能文章:Deepfake假得迫真 深度造假模糊真相什麼才可信?防偽研發競賽展開 單靠科技足以打擊深度造假?

更多周報文章︰【01周報專頁】《香港01》周報,各大書報攤、OK便利店及Vango便利店有售。你亦可按此訂閱周報,閱讀更多深度報道。