來稿|香港如何在AI時代建立可信監管?普通法制度下的治理思考
來稿作者:中傲
人工智能技術的迅速發展,正逐步改變全球經濟結構、法律制度與社會運作模式。從生成式人工智能到具備自主任務規劃能力的 AI Agent,技術演進不僅提升產業效率,也對既有制度框架提出新的問題。
香港特區政府在《2025年施政報告》中明確提出推動人工智能與數據科學產業發展,並透過人工智能研發院、創新研發平台以及政策配套逐步建立 AI 產業生態。這一政策方向顯示香港正積極把握第四次工業革命帶來的機遇,同時亦需要同步思考相應的治理與法律制度。
全球主要經濟體近年亦逐步建立人工智能監管框架。例如,歐盟推出《人工智慧法案》(EU AI Act),以風險分級方式規範不同類型 AI 系統;英國採取原則導向監管模式,強調在促進創新與防範風險之間取得平衡;新加坡透過 AI Verify 等治理工具推動可信 AI;加拿大與澳洲亦在高風險 AI 及企業治理方面逐步建立制度。
在此背景下,香港若要在 AI 時代保持國際競爭力,關鍵問題並不僅是「是否需要監管」,而是如何在普通法制度下建立一套既能促進創新,又能維持公共信任的治理框架。
國際經驗:不同制度模式的啟示
目前全球 AI 治理模式大致呈現三種方向。
第一種是以歐盟為代表的風險分級監管模式。
EU AI Act 將 AI 系統分為不同風險級別,並對高風險應用設立嚴格合規要求。例如在醫療、招聘或金融信貸評估等領域,AI 系統須符合透明度、數據治理及人類監督等要求。此模式在法律上具有高度清晰性,但亦可能增加企業合規成本。
第二種是英國採取的原則導向監管模式。
英國政府在 AI Regulation White Paper 中提出,由既有監管機構依照共同原則對 AI 應用進行監管,包括安全性、透明度、公平性及問責性。這種模式保留普通法制度的靈活性,使監管能隨技術發展逐步演進。
第三種則是新加坡的治理工具導向模式。
新加坡推出 Model AI Governance Framework 及 AI Verify 平台,使企業在部署 AI 前能透過測試工具評估系統可靠性與風險水平,從而提升企業對 AI 應用的信心。
從制度設計角度觀察,沒有任何單一模式能完全解決 AI 治理問題。真正有效的治理框架,往往需要結合不同制度的優勢。
香港條件:普通法與國際制度的交匯
香港在 AI 治理方面具備若干獨特條件。
首先,香港是全球少數同時具備普通法制度、國際金融中心地位及高度國際化法律服務市場的城市。普通法制度以案例演進及原則導向著稱,在面對快速變化的科技領域時,往往能保持法律彈性。
其次,香港正進一步強化其作為國際法律及爭議解決中心的定位。國際調解院(International Organization for Mediation, IOMed)總部已落戶香港,其法律基礎來自多邊國際條約,並以《聯合國憲章》所倡導的和平解決爭端原則為依據。
在人工智能跨境應用日益普遍的情況下,AI 相關爭議很可能成為未來國際商業爭議的重要類型。例如算法決策責任、AI 模型授權與數據使用、平台治理以及 AI Agent 的行為責任等問題,都可能涉及不同法域之間的制度協調。
在此情況下,具有國際公信力的爭議解決機制將愈發重要。
AI Agent:人工智能治理的新課題
人工智能技術近年的另一個重要發展,是 AI Agent 的出現。
與傳統 AI 系統不同,AI Agent 不僅能生成內容,還能自主規劃任務、調用外部工具並執行多步操作。在某些情況下,AI Agent 甚至可以代表企業或個人完成決策或交易。
這種技術形態為法律制度帶來新的問題。例如:
當 AI Agent 在金融交易中作出錯誤判斷時,責任應由開發者、部署者還是使用者承擔;
若 AI Agent 在醫療或法律場景中提供建議,其法律責任應如何界定;
在跨境應用情況下,AI Agent 的行為責任又應由哪一法域處理。
目前全球多數 AI 法規仍集中於 AI 系統本身,而對 AI Agent 的治理仍處於探索階段。因此,AI Agent 很可能成為未來 AI 治理的重要焦點。
實務案例:AI正在重塑專業制度
人工智能已在多個行業產生實際影響。
在金融領域,AI 已被用於算法交易、風險管理及反洗錢監測,部分金融機構亦開始測試 AI Agent 協助分析市場數據並提供交易建議。
在醫療領域,AI 系統可協助醫生分析醫療影像或預測疾病風險。然而,當 AI 建議與醫生判斷出現差異時,如何確定責任仍然是一個制度問題。
在法律與專業服務領域,AI 正被用於文件審查、合約分析及合規監測。這些應用雖能提升效率,但亦引發關於專業責任與法律判斷權的討論。
這些案例顯示,AI 不僅是一項技術工具,更逐漸成為影響制度運作的重要因素。
可能方向:香港版AI治理混合模式
綜合國際經驗,香港可考慮逐步建立一套具有本地特色的 AI 治理模式。
在制度邏輯上,可借鑑英國普通法監管思維,以原則導向方式保持制度靈活性;在治理工具上,可吸收新加坡經驗,引入 AI 測試與驗證機制;在風險分類方面,可參考歐盟 AI Act 的風險分級模式;在高風險責任制度上,可結合加拿大與澳洲的企業治理框架。
在此基礎上,香港可逐步建立一套以綠線、黃線、紅線為核心的 AI 風險治理框架。
綠線應用主要為低風險 AI,例如行政輔助、翻譯及資料整理,應鼓勵創新並保持監管簡化。黃線應用涉及金融、醫療、招聘評估等敏感場景,應加強透明度與人類覆核機制。紅線應用則包括嚴重侵犯人權或危害公共安全的 AI 用途,應予以明確禁止。
這種模式既能保持制度清晰,也能避免過度監管。
AI時代的國際調解角色
隨着 AI 技術跨境應用的增加,爭議解決機制的重要性亦會逐步提升。
在此背景下,國際調解院(IOMed)未來或可在三方面發揮作用:
第一,作為 AI 跨境商業爭議的調解平台;
第二,促進不同法域之間 AI 合規制度的對接;
第三,逐步形成 AI 爭議解決的實務指引與示範規則。
若這些制度逐步發展,香港在全球 AI 治理中的角色亦可能從技術應用中心,延伸至制度與法律層面的重要平台。
人工智能的發展不僅是一項科技進步,更是一項制度挑戰。
促進創新與防範風險的平衡
香港目前正處於人工智能產業發展的重要階段。如何在促進創新與防範風險之間取得平衡,將成為未來制度設計的重要課題。
從國際經驗來看,成功的 AI 治理模式往往不是單一制度,而是多種制度元素的結合。
對香港而言,普通法制度、國際金融中心地位以及國際調解院的落戶,為其提供了一個具有特色的制度基礎。
在人工智能逐步成為全球經濟與社會運作核心技術的背景下,治理制度的成熟與否,往往不取決於監管的嚴格程度,而取決於制度是否能在創新、信任與法律責任之間維持長期穩定的平衡。
若香港能在普通法傳統與國際制度合作之間持續探索並逐步形成具有自身特色的治理模式,其在全球人工智能發展格局中的角色,或許將不僅限於技術應用者,更可能成為制度對話與規則演進的重要參與者。
作者筆名中傲,從事國際金融合規及策略政策研究,並提供國際金融法規相關專業服務。
文章僅屬作者意見,不代表香港01立場。
01論壇歡迎投稿。請電郵至01view@hk01.com,附上作者真實姓名、自我簡介及聯絡方法。若不適用,恕不另行通知。香港01保留最終編輯權。