DeepFake軟件惹爭議 大數據時代私隱難保障

撰文:評論編輯室
出版:更新:

內地近日一個Deepfake換臉程式上線,引起不少人關注。然而,社會不能只沉浸在大數據帶來的便捷和利益,而忽略其背後AI犯罪、私隱問題等隱憂。各地政府和企業必須牢記,惟有平衡大數據的蒐集與小人物的私隱保障,科技才能穩當發展,讓人放心享受科技的好處。

8月30日,採用Deepfake技術的換臉軟件「ZAO - 逢臉造戲」上線,大受歡迎,翌日下午便在免費下載排名躍居第二。這個軟件讓人可以用自己的臉或者他人的臉替換一些經典的影視角色,體驗自己成為主角的快感。又或是可以替換一些社會名流,比如內地有名的富二代王思聰,體驗另類人生。

然而,很多人享受科技帶來的另類體驗時,容易忽視其背後的風險。「ZAO」使用的換臉技術主要基於Deepfake。Deepfake是「deep learning」(深度學習)和「fake」(偽造)混合字,專指以AI人工智能運作的人體圖像合成技術,比Photoshop手動改圖移花接木更迫真。而這項技術所衍生出的AI犯罪也正以驚人的速度蔓延。遭遇此類事件的女星不勝其數,包括Scarlett Johansson、香港演員李佳芯等,而以色列女演員Gal Gadot的臉被移花接木到色情影片中。這樣的惡意編輯還可以用於政客和普通人身上行騙。今年,一間英國能源公司便因為有駭客利用人工智慧生成的語音去仿冒其總裁,指示公司匯一筆急款,騙取了24萬美元。

顯然,依賴於deepfake技術的「ZAO」程式,具備AI犯罪的風險。至於這種風險的高低,則取決於其用戶協議對雙方的監管和限制。「ZAO」的用戶協議涉嫌過度獲取用戶信息,例如容許程式改動其肖像,將肖像權利授予該公司,讓其完全免費等。即是說,「ZAO」不僅可以免費使用、修改肖像,並可以任意將用戶肖像授權給想授權的第三方,且這種授權是永久、不可撤銷的,無異於信息販賣。這不僅難以限制AI犯罪的風險,難以保障用戶權益,所謂的私隱,幾近於無。

這種過度獲取用戶資料、侵犯私隱的問題,「ZAO」並不是孤例。2017年,內地《南方都市報》和中國人民大學的報告顯示,在1,550家網站和應用程式中,八成平台的私隱保障不足,九成的互聯網金融類和購物類平台私隱政策欠透明。不少黑名單中的應用程式經過改頭換面後,依舊讓人下載。就連社交平台Facebook亦曾在去年洩露5,000萬用戶資料,引起軒然大波。

保障大數據時代中,個人的私隱問題不容小覷,隨著科技滲透到生活的各方面,這將不僅僅是商業平台的問題,更會成為政府管治的問題。近日,香港社會抗拒智慧燈柱,便是典型的例子。市民一個主要憂慮在於不信任政府會如何處理和使用收集到的個人信息。

對此,社會須予以足夠重視。「百度」行政總裁李彥宏去年曾公開表示,「中國人相對開放,或者說對私隱問題沒有那麼敏感。如果用私隱來交換便捷或效率的話,很多情況下他們是願意這樣做的。」此話反映出其作為科技產品領頭人,也沒有意識到平衡大數據與個人私隱的重要。目前的科技產品和服務難以被替代,網民個人資料被過分暴露,也可能毫無辦法,甚至已司空見慣,自然地為了一時方便而出讓私隱。

大數據時代的來臨,科技的滲透必然愈來愈深。無論是科技公司還是政府機構,都應該明白目前以私隱換服務,難以稱得上是用戶真正的選擇,更多的是無奈的妥協和屈服。因此,政策和法律監管須跟上技術發展。比如,歐盟的《通用數據保障條例》(GDPR)於去年生效,從嚴規範資料收集。內地不少應用程式的條款層出不窮,遊走於灰色地帶,正因為法例對私隱條款的規定,遠遠不能夠回應當前大數據時代。

中外例子可鑑,香港亦須在法律層面加強保護個人資料。目前私隱專員公署沒有足夠權力,例如違反保障資料原則並不直接構成刑事罪行,沒有刑事調查權,亦沒有拘捕及罰款的權力;即使用戶資料外洩,大企業亦沒有通報的法律責任。此等問題,政府應盡早正視,並應積極探討和制定數據脫敏政策,在運用客戶數據時,除去數據的個人身份。唯有平衡大數據的需要和小人物的私隱,科技才能真正帶領社會進步。