律政思|AI成為「全能代理人」:我們準備好讓龍蝦「做主」了嗎?
律政思專欄|林詠茵
2026年初,人工智慧產業迎來一個耐人尋味的轉折點。過去數年,AI更多被視為提升效率的工具,是寫作助手、繪圖引擎、數據分析器;然而今天,以Seedance為代表的多模態生成模型,已能以近乎零邊際成本生產出影視級視頻作品;以OpenClaw(俗稱「龍蝦」)為代表的自主智能體,則跨越應用與場景邊界,能直接讀寫檔、調用軟件、執行多步驟任務。一句自然語言指令,便足以完成原本需要整個團隊協作的工作。
AI成為行動主體引發爭議
「一人公司」不再是概念,而是可被實踐的商業形態。這種轉變意味着什麼?如果說上一階段的AI是生產力工具,那麼當前的AI更像是「代理人」。它不僅協助我們完成任務,還開始替我們做選擇、做判斷、甚至直接行動。技術紅利帶來前所未有的效率躍升,也同時將法律與倫理推向壓力測試的邊緣。當AI從輔助角色走向行動主體,我們的制度準備好了嗎?
在所有法律爭議中,知識產權的衝突最為尖銳。AI模型之所以能生成高質量內容,是因為在預訓練階段學習了海量文本、圖像與視頻。然而,這些「學習材料」往往來自受版權保護的作品。近日迪士尼起訴字節跳動的案件,正是這場矛盾的縮影。迪士尼指控
在未經授權情況下使用大量影視素材訓練模型,荷里活多家影業公司隨即發出聯合法律警告。爭議的核心問題其實非常直白:AI為了學習而進行的大規模複製,究竟是合理使用,還是構成侵權?
歐美司法實踐受阻
美國司法實踐在這一問題上呈現出明顯分歧。有聯邦地區法院認為,只要AI沒有再現原作品的獨創表達,而只是提煉思想或事實,便可能構成高度轉化性的合理使用;也有其他地區法院判決強調,一旦AI生成內容對原作品形成市場替代,合理使用抗辯便難以成立。在AI訓練相關案件尚未作出終局判決前,技術層面的轉化性與經濟層面的市場影響交織在一起,使裁判標準充滿不確定性。
歐盟則通過Directive on Copyright in the Digital Single Market(《數字單一市場版權指令》)建立了「選擇—退出」機制,原則上允許文本與數據挖掘,但允許版權擁有人以「適當方式」保留權利。然而在實踐中,各成員國對何謂「適當方式」出現分歧,制度設計的統一性因此被削弱。
這種在具體適用層面出現的差異,亦反映出人工智慧相關規範在跨國治理中的協調壓力。在此背景下,歐盟於2026年初宣佈啟動《人工智慧法》相關優化程式,以提升規則運行的一致性和彌合成員國間治理標準的差異。無論採取事後司法救濟或是以事前風險規避為核心的規制模式,其背後所面臨的實為同一結構性困境,即人工智慧對傳統版權核心原則思想與表達二分法的根本性衝擊。
AI造成損害誰承擔責任?
現行版權制度建立在「人類作者」的假設之上,而AI的出現同時動搖了兩端基礎:一端是訓練階段的大規模複製行為,另一端是生成階段的作者身份問題。若法律只能在全面禁止與完全放任之間搖擺,創作者與科技企業都難以獲得穩定預期。真正值得思考的,也許不是單純的侵權判定,而是是否需要建立更清晰的法定授權與補償機制,讓創作激勵與技術創新在制度內部達成平衡。
如果說Seedance改變的是內容秩序,那麼OpenClaw所引發的則是控制權結構的重塑。與生成模型不同,智能體能夠直接接觸操作系統,讀寫本地檔,調用外部工具,甚至執行跨應用的複雜任務。這種能力帶來巨大便利,也意味着必須授予其極高權限。一旦出現配置不當、惡意插件或提示詞注入攻擊,智能體可能在後台執行用戶並未真正意圖的操作,從刪除重要檔到外洩密鑰,後果往往難以逆轉。
更棘手的是責任問題。當損害發生時,應由誰承擔法律責任?是開源社群中的開發者,是提供算力的雲平台,是負責部署的企業,還是發出模糊指令的使用者?傳統侵權法建立在明確的加害主體與因果關係之上,但在多方參與、概率輸出的AI生態中,責任鏈條呈現出前所未有的複雜性。若無清晰的角色分工與注意義務界定,法律追責將陷入困境。
應建分級分類治理框架
面對AI風險,最不理性的選項或許是簡單封殺。技術封禁固然可以暫時降低風險,卻也會錯失生產力躍升的機會。更可行的路徑,是建立分級分類的治理框架。對於主要影響知識產權的生成模型,重點在於透明度、標識義務與可追溯機制;對於直接影響財產安全、資訊安全與系統穩定的智能體,則必須在系統設計層面設置更嚴格的訪問控制與權限限制。尤其在涉及資金劃撥、核心數據刪除等不可逆操作時,應強制保留「人在回路」機制,在最終執行前由自然人進行二次確認。這並非對技術的否定,而是對人類最終決定權的制度保障。
即便如此,我們仍須承認,任何合規或監管機制都無法將風險降至零。生成式模型難以避免出現「幻覺」,智能體的決策又基於概率推算而非確定邏輯。在此背景下,引入責任保險作為補充機制,或許是一種現實選擇。透過市場化的風險分攤與保費定價,可以在事故發生後為受害者提供救濟,同時透過經濟槓桿倒逼企業提升安全標準。這種制度設計並非替代法律,而是與之形成互補。
「敏捷治理」賦予制度彈性
在效率焦慮與技術崇拜交織的時代,人工智慧治理不應淪為計劃性監管,也不應放任於市場競逐。真正的制度智慧,在於構建一種「敏捷治理」框架:以程式公正為核心,讓開發者、使用者與權利人在權責對等的環境下充分溝通。
法律不替代市場決策,也不壟斷技術方向;它的角色,是確保所有利益相關者在透明、可預期的規則之中博弈與協商。人工智慧的發展,或許終將改變生產方式與社會結構,但不應動搖人類在價值判斷上的最終主體地位。當決策權逐步讓渡給演算法之際,制度必須清晰劃定不可逾越的紅線:高風險決策的人類最終控制權,必須成為法治秩序中的絕對底線。
同時,制度的更新,終究離不開人的更新。所謂「敏捷治理」,不僅是規則設計上的彈性,更是決策結構中的能力轉型。當人工智慧技術日益專業化,若立法者、決策者缺乏基本的技術理解,監管便可能流於形式。能讓技術評估與政策及監管安排在同一語境中有效銜接的跨界能力,或許正是人工智慧時代治理理性的關鍵。
AI專屬規制確保人類自主性
短期而言,可以透過招募更多具備技術背景的人才擔任顧問或參與政策諮詢,以彌補知識落差;從長遠來看,更重要的是培養並吸納這類人才成為技術監管與公共治理的中堅力量。而對香港而言,我們不僅需要更新人工智慧治理與法律制度,更需要重新思考人才的培養模式。香港應建立更具吸引力的人才流動與發展機制,吸納具備技術背景的人才進入公共治理與監管體系,促進技術、政策與法律之間的交叉融合,使技術理性與法治理性在制度內部形成真正的整合。
這種能力重構,亦將具體體現在各專業實務之中。以法律專業為例,未來的法律專業者或許不再只是熟悉判例與條文,更應具備對演算法邏輯、數據結構與系統風險的基本理解。唯有如此,「敏捷治理」才不致停留於理念,而能轉化為具體而持續的制度能力。
倘若說北都專屬法是一場空間治理的制度革新,那麼AI專屬規制,則可能是一場更深層的法治範式轉移。它不僅關乎技術合規或監管,更關乎在智能時代,我們如何重新定義創作、責任與人類自身的角色。
這或許不是一部單一法例可以完成的工程,而是一場持續展開的制度實驗。但可以確定的是,當技術已然躍遷,法律若不及時回應,秩序的裂縫只會愈發擴大。人工智慧的未來,終究不只是演算法問題,而是法治文明的下一次自我更新。真正值得深思的,不僅僅是AI是否會取代人類,而是我們在追求速度與便利的同時,如何確保責任、尊嚴與自主性不被悄然侵蝕,這或許才是智能時代最重要的課題。
作者林詠茵是香港教育大學國家安全與法律教育研究中心講師,香港大學法學博士。
文章僅屬作者意見,不代表香港01立場。
01專欄精選不同範疇專家,豐富公共輿論場域,鼓勵更多維度思考。