與AI共存.三|AI立法競賽——中美歐誰能定義全球規則?
人工智能(AI)立法的本質,從來不只是技術監管,而是「誰來定規則、為誰定規則」的權力博弈。長期深耕法律與科技領域的學者鄧德文形容,在AI治理的版圖上,美國、歐盟、中國的監管模式形成了「三足鼎立」的規則競賽——誰的規則能夠成為全球默認標準,誰就掌握了AI治理的話語權。
【「與AI共存」系列深度報道之三】
美國:強化地緣政治影響
美國利用AI立法作為鞏固國家安全的工具,在特朗普的第二任總統任期中尤甚。2025年7月23日,白宮發布重大戰略文件《贏得AI競賽:美國AI行動計劃》,大力推動「去監管化」,意圖將美國在AI技術的領先優勢,轉化為持久性地緣政治影響力。
2026年3月20日,白宮發布《國家人工智能政策框架立法建議》,明確以「維持和增強美國全球AI主導地位」為目標,試圖統一聯邦監管並限制各州分散立法。當中,「促進創新並確保美國AI領先地位」單列一章,明確反對建立新的聯邦AI監管機構,亦三次提到「國家安全」。美政策界高度關注框架中的數據及能源條款,及其對中美AI競爭格局的影響,擔憂數據版權問題會影響美國開發者獲取高質量訓練數據,讓中國有機會反超;但他們也認同,應該鼓勵AI模型開發者採用分佈式發電的做法,因為這有利於與中國AI基建競爭。
歐盟:搶佔立法「標準高地」
歐盟在2024年8月實行《人工智能法案》(EU AI Act),迫使其他國家的企業為進入歐洲市場而接受相關規則,從而將自身規則外溢為全球標準。當中,歐盟針對雖具合法性但對社會與個人生活有重大影響的「高風險」系統,要求開發者必須履行極為嚴格的合規義務。2025年2月,法案釐定「絕對不能碰」的行為紅線。2026年8月,高風險系統合規要求全面生效,禁止利用潛意識技術或針對年齡、殘疾等群體弱點來扭曲個體行為的系統。
這類系統主要分佈於兩大範疇:第一類為「產品安全組件」,包括作為受歐盟產品安全法規(如醫療器材、機械、玩具、汽車等)管轄產品的安全組件;第二類則涵蓋生物辨識、關鍵基礎設施等八大關鍵領域。《人工智能法案》規定,這類高風險AI必須在透明度、數據品質及人類監督等方面全面達標,方能在歐盟境內合法運作。
中國:統籌「發展」和「安全」
中國則實施「統籌發展和安全」的雙軌制。國務院最早在2017年發布《新一代人工智能發展規劃》提出AI立法散步走計劃,預計先建立相關的法律法規、倫理規範和政策體系,並在2030年進行完善。2024年,有全國人大代表提議,先以「人大決定」形式明確AI基本原則與規範,待AI進一步發展成熟後再制定綜合性立法。同年7月,中共二十屆三中全會通過《中共中央關於進一步全面深化改革 推進中國式現代化的決定》,當中提出完善生成式人工智能發展和管理機制、建立人工智能安全監管制度。
2025年,國務院明確「推進人工智慧健康發展立法」——有別於此前兩年的立法計劃,這次表述強調的是「健康發展」而非只是「安全管理」。同年7月26日,國務院總理李強在「世界人工智慧大會」開幕式上的致辭也強調,要堅持統籌「發展」和「安全」,並且加強各國對接協調,推動早日形成「具有廣泛共識的人工智慧全球治理框架和規則」。
香港:多邊化趨勢下極具潛力
鄧德文表示,除了美國、歐洲、中國的「三足鼎立」之外,全球AI治理也呈現「多邊化」的發展趨勢。例如,七大工業國組織(G7)建立的「廣島Al進程」,意在規範人工智能的國際監管標準,但實質性約束力有限。他認為,更可能的路徑是「雙邊/小多邊」的規則互認,如內地與香港的個人資訊跨境標準合同、歐盟與日本的數據充分性認定等。
鄧德文進一步指出,在全球AI規則競爭白熱化的背景下,香港作為國際調解院總部所在地的獨特地位,賦予了其開拓「AI國際調解」新領域的歷史性機遇。這座全球首個專門從事調解以解決國際爭端的政府間國際組織落戶香港,不僅是對香港成熟法治體系與深厚專業底蘊的高度認可,更在實踐層面為全球提供了一個中立、專業且高效的紛爭解決平台。「仲裁」與「調解」等替代性爭議解決機制,本身就具備「保密性」的天然優勢;而在解決AI侵權或相關爭端時,案件往往涉及大量核心技術與商業秘密,非公開模式能有效保護企業的核心資產,也能更有效地引入行業專家參與裁斷。
中國曾於2023年提出《全球人工智能治理倡議》,當中羅列11項理念、宗旨和原則,包括以人為本、智能向善、倫理先行、平等發展等等,期望各國加強交流合作,從而不斷提升人工智能技術的安全性、可靠性、可控性、公平性。不過,目前國際社會尚未達成一致的治理共識,更缺乏一個類似聯合國層級、具備普遍約束力的「全球AI治理公約」。在這種規則「碎片化」的時期,鄧德文認為,設於香港的「國際調解院」應被寄予厚望。它不應僅被視為一個法律機構,更有潛力發展成為全球AI治理的穩定器。隨着未來加入《國際調解院公約》的國家越來越多,國際調解院在AI全球治理方面定能發揮無可替代的優勢。