律政思|眼見不一定為實:如何給「深度合成」技術立規?

撰文:律政思
出版:更新:

律政思專欄|鄧凱博士

新年伊始的AI圈很是熱鬧,尤以視頻生成模型的技術突破與火爆應用為甚。用戶只需簡單輸入文本或圖片,就能生成出畫面與聲音高度逼真,物理規律一致性極佳的高質量視頻,標誌着AI已然從單純的生產力工具,向內容與社交平台延伸的全新趨勢。然而,隨之而來的是關於深度合成技術濫用的爭議與憂慮。一方面,科技界人士質疑假視頻或導致信任危機;另一方面,版權方對AI創新者的法律挑戰和爭訟也紛紛開啟。

深度合成的法律議題之於香港,也極富現實意義。為規管日益嚴峻的AI深偽(Deepfake)問題,特區政府律政司已於近日展開法律檢視,研判立法及制定相關政策的必要性和基本邏輯,以期求得技術發展與安全之間的有效平衡——這也是本文所意圖闡釋的。

一、深度合成技術放大了原有的規管難題

不可否認,AI生成的違法有害內容,在性質上與傳統的網絡謠言、虛假信息別無二致,但其的確也加劇了問題的複雜度。對此,有研究機構總結出三類風險,也即深度合成技術呈現出「更易、更多、更真」的負面影響:

第一是門檻「更易」。因為生成高度「真實感」的內容不再依賴專業技能,而是在技術賦能之下,大量非專業的「草根」也能輕易製造出接近真實的虛假內容。

第二是數量「更多」。算法指令可令虛假信息實現「批量化生產」甚至「工業化造謠」。這種海量產出不僅擾亂輿論,更引發「垃圾進、垃圾出」的AI污染次生災害。

第三是體感「更真」。多模態、多細節的信息賦予了謠言極強的迷惑性。AI生成的虛假內容往往披着「新聞語言」和逼真視覺要素的外衣,細節之豐富令普通公眾難以辨別真偽,極大地衝擊了社會信任體系。

二、構建具有技術適應性的法律體系

當信息內容的真實與虛構界限徹底模糊,可以提供確定力、保護力和信任感的法律規管就應登場。竊以為,包括立法在內的法律對策可從「事前—事中—事後」幾個方面作出適應技術的立法籌劃:

針對上述挑戰,首先是考慮引入作為「事前」手段的AI標識制度。中國內地的經驗是建立了顯示標識和隱式標識的「雙重機制」(歐盟《AI法案》也有類似的透明度義務)——前者指代用戶可感知的提示形式,後者則要求代碼層的元數據可被機器識別;這兩項舉措均由強制性的法律及明確的技術標準所規定,以確保內容的「可追溯」。更進一步,按照內地監管要求,內容生成平台的責任是把好「源頭關」,植入隱式元數據並對易混淆內容顯著打標;傳播平台還需守住「流通關」,核驗元數據並督促用戶主動聲明。

「強制標識制度」的有效性不難理解,它的實質是「以技治技」,透過事前治理的方式為監管深度合成提效。一方面,隱式標識嵌入源頭,能幫助傳播平台快速甄別「低門檻、大批量」的生成內容,強化風險管理;另一方面,顯式標識起到關鍵警示作用。研究表明,AI標簽、水印能有效降低受眾對內容的盲目信任,減少虛假信息擴散。

其次是關於「事中」責任的合理界定,尤其是依據技術能力和角色分工,釐清不同主體的權責差異。第一項重點是區分生成平台和傳播平台的責任強度。生成端「植入」標識相對容易,而傳播端面對海量多源內容,故而帶來極大的「檢測」的難度與成本。也由此,法律對傳播平台的規管應具包容性,其重心要落腳在整體治理的真實效果,而非苛求對每一條內容實現「無一遺漏」的完美攔截。在比較法意義上,這也是歐美立法實踐中,未將嚴苛標識責任直接施加於傳播層的重要考量。

如若按照「(技術)提供者/部署者」的二分法,兩者的權責也有區別,例如歐盟《AI法案》就主張二者權責應精準切割:「提供者」(開發者)掌握底層代碼,須負責實現「機器可讀」的技術標記;「部署者」(應用者)因直接面向公眾,則要承擔對深度合成內容的「顯式披露」責任。也即,由技術方解決「可檢測」,應用方保障「知情權」,雙方場景明確,各司其職。

最後是關於「事後」追責。眼下AI應用千差萬別,唯有先確立類型化規制(Risk-based Classification)的風險標尺,才能讓責任認定準確落地。在2019年美國眾議院舉辦的AI合成技術聽證會中,馬里蘭大學法學教授Danielle Citron就指出,並非所有深度合成的虛假內容都要被禁止。具言之,治理深度合成不應「一刀切」,對於具有諷刺、戲仿等「生產性」價值的內容,應避免施加過重的標注義務以保護言論自由;監管重心應聚焦於危害國家、政治與公共安全,以及侵害公民人格權與企業信譽的特定高風險場景。

相反,鑒於深度合成技術的通用性,其應用已延伸至數據合成、遊戲渲染及B端辦公等低傳播風險領域,這顯然考驗立法者的智慧並要求監管方與業界就內容分類達成必要共識。只有確定好內容屬性與風險等級,區分「無害表達」與「有害虛假」,才能更好劃定事後追責的規則紅線。

三、深度合成絕非洪水猛獸

必須承認,媒體慣以「深度偽造」一詞來泛指所有的深度合成技術,是以偏概全,既不專業,也不科學。基於非法使用技術的意圖(即Deepfake)去定義技術本身,強調其潛在欺騙性和可能的負面效應,極易污名化深度合成,扼殺AI技術的社會福利和正向應用價值。正因此,中國內地的立法者在制定相關監管文件時,果斷摒棄彼時風靡歐美的「深度偽造」(Deepfake)一詞,而確立了「深度合成」(Deep Synthesis)這一法律概念。

地方性法規對此也有效仿舉動。一河之隔的深圳,於2021年在草擬其《人工智能產業促進條例》時也主動刪除了「深度偽造」的修辭,改以禁止「利用深度合成技術從事禁止行為」表明立法態度。如此斟酌用詞並非「文字遊戲」,它昭示出監管邏輯的根本轉向:從帶有負面預設的「打擊偽造」,轉向了技術中立的「規範合成」——既要防範技術被用於欺詐,更要理性承認深度合成通用性的合法產業價值。

在概念的正本清源之後,我們應如何選取法律規制工具?筆者始終認為,具有滯後性的立法並非唯一有效方式,針對種種顛覆性技術的規管舉措,往往可以從已有法律文本體系中尋找資源。之於香港,或許可側重法律解釋等普通法技藝來解決規範難題,例如從《刑事罪行條例》中的「不誠實取用電腦」罪行或未經同意(及威脅)發佈私密影像行徑,以及從《淫褻及不雅物品管制條例》中覓得法制淵源。

誠然,作為軟法的當然組成,行業公約、標準、最佳實踐、倫理指南等自律措施,以及公眾教育和數字素養的培養等更為敏捷的舉措,都應當視為補強立法局限性的多元治理工具,香港早有現成的制度儲備,更不應拒絕。更進一步,「用魔法打敗魔法」的技術治理很大程度上代表了未來趨勢,香港的立法及規管秩序中可否納入諸如「鼓勵探索AI鑒偽算法」的制度設計,再創某種「法律吸納技術」的全新範式也值得想像,讓我們拭目以待。

作者鄧凱博士是香港城市大學法律學院公法與人權論壇研究員,法學博士。

「律政思」是由法律專業人士主筆的法律評論專欄,旨在以專業視角,剖析國際、中國內地和香港的法律發展、法治建設及相關社會議題,深化公眾的理解。

文章僅屬作者意見,不代表香港01立場。

01專欄精選不同範疇專家,豐富公共輿論場域,鼓勵更多維度思考。