法觀|人工智能色情物品以假亂真——香港法律如何應對?
法觀專欄|陳政龍資深大律師
今時今日的人工智能(「AI」)生成技術(「Generative AI」)發展迅速;以往需要很多金錢和時間來製作的圖像或影片,現在已經可以透過普羅大眾均能夠使用的應用程式來生成,而製成品的質素更令分辨真假變得極其困難。可是,當大部分人利用生成技術將已絕種的恐龍帶到現代香港的街道上,或使自己喜歡的動作電影及/或武術電影明星一決高下時,有一小部分人卻在利用生成技術來製作一些違反道德的色情相片或影片,而現有的法例尚未能趕上人工智能生成技術的發展速度,因此未能充分保護這些AI色情物品的受害者。
AI生成色情物品是性暴力
利用AI生成技術(尤其深度偽造)來製作色情物品的例子遍佈全球; 主要原因是這種製作色情物品的方式比傳統手動修改相片的方式簡單。製作者只需將某人的照片上載至應用程式後,應用程式便會自動製作一些利用相片內的人士為主角的色情物品。應用程式甚至能夠單憑一張照片在非常短的時間製作很大量的製成品。
在其他國家外,很多荷里活演員和著名歌手的樣貌都經常被用來製作深度偽造色情物品,而這些相片及/或視頻經常被廣泛地發布。這個現象突顯了AI生成的色情物品的危險之處,亦解釋了為何這種行為被廣泛接納為性暴力的一種。
多國已着手修訂相關法例
首先,有別於一般的性罪行,受害人在任何地方、任何時間,都可能被「侵犯」,因為「侵犯」的方式根本不需要受害人在場。可是,雖則這些色情物品的受害人不會受到任何實質上的侵犯,但對於受害者心理上的傷害一定不輕。尤其當帶有他們樣子的色情物品隨時隨地都能夠傳送至世界的每一個角落,將一發不可收拾,尤其任何擁有智能手機或電腦的人也有能力造成這些傷害。
多國已開始訂立或修訂法例,專門針對AI色情物品的上升趨勢。英國在2023年的《線上安全法》(Online Safety Act 2023)已經將未經同意散布色情深度偽造內容定位非法的行為,亦正進一步計劃修訂《線上安全法》來將製作這些內容同樣界定為刑事罪行。2026年2月,英國的《數據(使用和存取)法》(Data (Use and Access) Act 2025)已將未經同意而製作這些內容同樣界定為刑事罪行。除了製作和散布深度偽造色情物品,南韓更自2024年將觀看、管有及/或保存這些材料也定性為刑事罪行。這些舉動均顯示AI色情物品的問題已經迫在眉睫,而立法工作已變得刻不容緩。
AI色情並非私隱權問題
在香港,現有的法例已將未經同意下發布私密影像,或者威脅發布私密影像刑事化。可是,「私密影像」的定義並未能夠涵蓋一些完全經過AI生成的色情物品,因為這些物品並非源自一張「照片、錄影紀錄或影片,或靜態或活動影像紀錄」(見香港法例第200章《刑事罪行條例》159AA和159AAE條)。
同樣地,現有的法例已經覆蓋了窺淫和偷拍/偷看私密部位(以及發布或威脅發布有關影像)的行為,但這些罪行並不適用於AI生成的色情物品。這些罪行的立法原意是保護受害人在現實生活的性私隱,並且將有關侵犯定性為罪行。雖然AI色情物品同樣會對受害人有一定程度的侵犯私隱成分,但基於兩種侵犯屬於截然不同的性質,因此不能混為一談。
換言之,若香港的法例需要有效地應對AI色情物品的來臨,我們必須盡快修訂現有的法例,使定義能夠涵蓋一些全部由AI生成的色情物品。否則,只會有更多人成為法例未能保護的受害者。
作者陳政龍資深大律師是香港大律師公會前副主席,擅長刑事訴訟,尤其擅於處理白領罪行與監管罪行案件。
「法觀」是由多位分別擅長刑事、民事、商業等專業領域的執業大律師,以個人身份輪流撰寫的法律專欄,冀分享法律觀點及實務經驗,深入淺出剖析時事與法理,啟發讀者以法律視覺解構生活大小事,以推廣法治精神。
文章僅屬作者意見,不代表香港01立場。
01專欄精選不同範疇專家,豐富公共輿論場域,鼓勵更多維度思考。