與AI共存.二|當AI越來越強大——它犯的錯,誰來負責?

撰文:張清語
出版:更新:

當Openclaw等智能體越來越強大,AI不僅僅是一個智能工具,更像是我們在虛擬世界中的一個分身。誰來監管?如何監管?已然成為繞不開的問題。《香港01》就此專訪長期深耕法律與科技領域的學者鄧德文。他帶着電腦前來,笑言這次訪問本身就是「人機共生」的體現;而他也習慣在忙碌的工作間隙,向AI輸入各種想法和疑問,再由AI生成報告。他越是深度使用,就越是擔心:法律的反應早已迫在眉睫。

【「與AI共存」系列深度報道之二】

當Openclaw等智能體逐漸越來越強大,AI不僅僅是一個智能工具,更像是我們在虛擬世界中的一個分身。誰來監管?如何監管?已然成為繞不開的問題。

人能負責但AI可以嗎?

鄧德文告訴我們,在未來,人類最大的不可替代性,或許就是「人能負責」。

這聽起來有些抽象,他娓娓道來:根據經濟合作與發展組織(OECD)的統計監測數據顯示,過去十年間人工智能相關事故呈現爆發式增長態勢;截至2023年底,全球範圍內累計記錄的AI事故總數已達7,195起。「AI犯錯,誰能負責?」——這無疑是AI時代的必答題。

鄧德文整理了目前世界各地的三種法律嘗試。

第一種是「電子人」(E-person),即賦予AI系統法律主體地位,對自己的行為直接承擔法律責任。歐盟曾考慮創設「電子人」這一特殊法律主體類型,為高度自主的AI系統建立獨立的法律人格框架。不過,這種科技烏托邦主義產物,最終未能成功推進。因為AI法律人格很容易被濫用,甚至淪為「法律黑洞」,變成相關責任主體逃避法律責任與道義義務的手段;不但違背責任法的基本原理,而且將會帶來嚴峻的倫理挑戰。

第二種是「AI犯錯,相關主體負責」,即風險規制視角下的無過錯責任,責任主體是AI系統的提供者、所有人、使用者等相關主體。這個方案強調了在高風險應用場景中,相關責任主體應當對AI系統造成的損害承擔嚴格責任,從而實現對公共安全的有效保障。

第三種嘗試是「保險賠償」,主要通過建立基於保險的無過錯賠償機制,由AI系統相關方強制購買責任保險,發生損害時由保險直接賠付受害人,保險公司事後向責任方追償,實現快速救濟與風險分散的雙重目標。

鄧德文建議,制度設計必須考慮如何「刺破AI面紗」,追溯到智能體背後的自然人主體。

制度設計必須考慮「刺破AI面紗」

鄧德文將AI智能體比作「有限責任制公司」。他解釋,公司法中有「刺破法人面紗」的制度。有限責任制度的初衷是保護背後的自然人能夠大膽經商,但在股東利用公司外殼作惡或存在不誠實行為的特定情況下,法律允許剝離法人外殼,要求股東承擔無限連帶責任。他以此建議,制度設計必須考慮如何「刺破AI面紗」,追溯到智能體背後的自然人主體。

然而,AI「犯錯」後的責任分配問題比較複雜;同時,由於技術發展速度遠超立法周期,法律也無法預見並窮舉所有應用場景。因此,目前更傾向於通過「合同」與「個案裁量」相結合的方式處理:一方面,在尊重市場規則的前提下,只要不涉及脅迫、欺詐,且不違反強行性規範、人倫及公序良俗,允許當事人通過合同自由約定責任分配;另一方面,當糾紛發生時,由法院根據個案的具體情形進行裁斷。

鄧德文認為,這種依靠有效合同約定與法官個案裁量相結合的模式,是目前應對AI技術變動性最合理的制度安排,而內地、美國及歐盟的AI治理法律,都有較高的參考價值。

內地AI監管秉持「邊幹邊調」的務實邏輯,重心已從早期的風險防範,轉向2024年後的促進創新、數據放權。在架構上,形成了「硬法築底、軟法補充」的格局,通過強制性的部門規章與靈活的推薦性標準,兼顧了監管剛性與行業空間。這種治理模式反應極快,從前瞻性的演算法規章,到2025年針對AI內容真偽的標識辦法,精準同步技術浪潮。同時,通過自動駕駛、直播電商等「場景化」規範,實現對垂直領域的精細化治理與安全平衡。

美國共和黨人曾試圖阻止各州在10年內將AI監管納入「預算和解法案」,並將AI發展視為服務國家安全與大國博弈的手段;其立法監管具有法律碎片化的特徵,聯邦、州以及行業間出現法律衝突,為企業合規增加成本。2025年,《大而美法案》和《贏得AI競賽:美國AI行動計劃》頒布,對內加速AI創新,破除監管障礙,對外遏制打壓中國自主產業。

2024年8月《歐盟人工智慧法》生效,帶有明顯的本國產業保護色彩,形成「強監管,弱產業」;2025年7月,近50家歐洲企業聯名呼籲推遲實施,因為法案出現行為準則不明確、罰款機制嚴苛(最高營業額7%)等可能抑制創新的弊端。如今,歐盟正在進行一場名為「Omnibus」的永續減負改革,從中不斷修正過往的監管思路。可以說,歐盟AI監管政策正從「硬法」轉向「軟法」,減弱監管力度,增加創新空間。

2024年8月《歐盟人工智慧法》生效,帶有明顯的本國產業保護色彩,形成「強監管,弱產業」。

全球AI監管從軟到硬從嚴到鬆

鄧德文提出,未來三至五年,AI專項立法將在全球範圍內迎來關鍵的演進窗口。技術迭代快以月計,但立法周期則慢以年計——這種「快科技」與「慢法律」之間的矛盾,決定了Al立法不可能一步到位,綜觀當下的AI法律監管領域,主要呈現出以下幾大趨勢:

第一,「誰管得少,誰發展快」,「先造輪子,再造刹車」。中國《生成式AI服務管理暫行辦法》冠以「暫行」二字,《人工智能法》草案在全國人大常委會仍處於「預備審議」狀態,可見立法者刻意留出觀察窗口。美國也開始進一步的「去監管化」:2025年1月,特朗普政府撤銷了拜登第14110號行政令(關於安全、可靠和值得信賴的AI開發與使用),取消開發商分享安全測試結果、聯邦機構任命首席AI官等要求;2025年12月,行政令進一步確立聯邦優先權框架,成立「AI訴訟工作組」專門挑戰各州被認為過於嚴格的AI法律。

第二,監管沙盒(Regulatory Sandbox)。鄧德文表示,監管沙盒的核心思想是「在受控的環境下進行創新測試」。它就像是給新技術、新業務模式劃定一個「實驗區」。在這個區內,監管機構會放寬部分現行法律法規的限制,允許企業在真實的市場環境中,針對真實用戶進行小規模的壓力測試。歐盟AI法案第57條要求所有成員國在今年8月2日前建立至少一個AI監管沙盒。美國《國家AI政策框架》也明確建議國會建立AI應用的「監管沙盒」。中國深圳、上海等地已在自動駕駛、金融科技等領域開展AI監管沙盒試點。

第三,場景化、行業化的「小切口立法」。如在醫療、金融等高風險領域,都已優先立法。在美國,加州要求AI不得虛假持有醫療執照,AI問診須披露AI身份;伊利諾伊州將未告知員工而使用AI進行招聘/晉升/解僱決策等行為定為民事侵權。中國內地智能網聯汽車領域持續推進地方立法試點。歐盟AI法案也不是一刀切,而是劃定「高風險AI系統」清單(附件III),對清單內的系統要求影響評估、透明度義務和人工監督,清單外的則以自願合規為主。這一「基於風險的分級監管」幾乎已被所有主要司法管轄區接受為立法範式。

第四,AI倫理正在從「軟性建議」硬化為「剛性法律」。在透明度方面,中國2025年施行的《人工智能生成合成內容標識辦法》明確要求AI生成內容必須進行顯隱雙重標識,不再是企業的自選項。在演算法歧視方面,美國科羅拉多州AI法案與伊利諾伊州《就業AI歧視法》均要求開發者進行影響評估,嚴禁偏見。這種治理的硬化還體現在技術標準被直接寫入法律,進行「技術嵌入式治理」管理,即法律義務被「編碼」進技術底層,如中國和加州均強制要求提供商配備數字浮水印、內容認證及檢測工具,使法律監管融入技術手段。

需要的不僅是制度創新,更要在技術進步與人文關懷之間找到恰當的平衡點。
法律學者鄧德文

動態平衡技術創新和人文關懷

鄧德文觀察到,全球AI治理思路發生顯著轉向,各國愈發強調產業發展與競爭力培育,所以監管力度呈現整體放鬆趨勢。2025年2月,巴黎舉行「人工智能行動峰會」,與之前兩屆峰會相比,基調明顯從風險防控向創新促進偏移,「輕監管、重發展」成為主流。歐盟立場也有所軟化,其科技監管副主席維爾庫寧表明將簡化人工智能規則,以改善商業環境,扭轉歐盟「強監管、弱產業」的印象;法國總統馬克龍則進一步闡述了歐盟的共同戰略,包括控制新立法、加大投資,並着力培育一批能在關鍵領域掌握自主技術、參與國際標準制定的「國家冠軍企業」,以提升歐盟在全體人工智能競爭中的話語權與市場份額。

與此相應,美國持續推行「去監管」路線,其政策實質上為大型科技公司創造了更有利的制度環境;副總統萬斯在演講中不僅反對歐盟的嚴格監管模式,更指其合規成本主要壓制了中小企業創新——這種論述背後,實際是為已具備規模、數據與資本優勢的科技巨頭鬆綁,使其能在更少約束下加速技術落地與市場拓展。2025年5月11日,美國眾議院能源和商業委員會通過提案,禁止各州在未來十年內監管人工智能及自動決策系統。此舉雖然名義上旨在鼓勵全國統一的創新環境,實則進一步削弱了地方層面制衡科技巨頭的可能,使大型企業在AI研發、部署與治理中佔據更主導的地位,鞏固其市場競爭壁壘。

鄧德文總結,「平衡」的答案不在於找到一個靜態的平衡點,而在於建立一套動態平衡機制,涵蓋以下五大要素。第一,分級分類:不同風險等級適用不同監管強度,如歐盟《AI法案》嚴禁開發具備潛意識誘導、或利用年齡與殘疾弱點扭曲等「不可接受的風險」的系統;針對影響深遠的「高風險」系統,則要求開發者必須滿足透明度、數據品質及人類監督等嚴格指標,方可上市。第二,沙盒+日落條款:新規則先在限定範圍內試行,設定自動失效日期。第三,負面清單:只規定「不能做什麼」,而非「應該怎麼做」,如禁止社會評分、禁止AI用於致命性自主武器決策。第四,強化事後追責:減少前置審批,強化事後責任追究和損害賠償。第五,技術作為規制手段:用AI治理AI,把技術手段寫入法律。

鄧德文又認為,AI將為政治、經濟、社會等方面帶來一系列陣痛,所以技術發展更應「以人為本」,確保AI系統的目標與人類福祉保持一致,以產品責任、保險機制與風險規制共同構成AI侵權法的新秩序框架。「需要的不僅是制度創新,更需要在技術進步與人文關懷之間找到恰當的平衡點。」他預計,未來三至五年,技術的底層創新與制度的頂層設計將持續交織,選擇「動態平衡」而非「一勞永逸的方案」——這個時代AI治理的真正答案。

在香港,數字政策辦公室(數字辦)制訂了《人工智能道德框架》、《香港生成式人工智能技術及應用指引》等,為開發及應用AI技術的項目提供無約束力的指引,以識別和管理有關AI項目的潛在風險及須注意事項。為檢視不同政策範疇內的法律能否配合AI發展,律政司司長林定國將成立「檢視支持更廣泛應用AI所需的法律配套」跨部門工作小組,各部門先對現行法律查找漏洞或不足之處,再按實際環境研究具針對性和可操作的解決方案。