講港AI|從「養龍蝦」到「管龍蝦」:搭建人機共生系統責任階梯

撰文:郭毅可
出版:更新:

講港AI|郭毅可教授專欄

人工智能的發展,正來到一個微妙的轉折點。過去兩年,隨着生成式AI的爆發式成長,大眾的焦慮主要集中在「AI是否比我聰明」這個問題上;然而接下來,隨着一種可以完全自主運行的AI智能體出現,真正可能卡住AI發展瓶頸的,恐怕不再是模型的智能水平,而是「許可」(Permission)的問題。當AI從「會說話的知識庫」進化為「會行動的數字代理」,它能否被允許自主行動?由誰來允許?允許的邊界又在哪裏?

AI代理未來已來

最近,被稱為「龍蝦」的開源智能體「OpenClaw」在內地技術圈迅速爆紅,這並非偶然。這款框架讓開發者第一次清晰看到一種令人振奮的可能性:AI不再局限於對話框裏的「聊天室友」,不再是只能生成文字、圖像的被動工具,而是可以自主拆解複雜任務、跨平台執行操作的「數字代理」。

你只需對電腦說一句「幫我整理上個季度的銷售數據,並根據這些數據草擬一份給客戶的跟進郵件,然後在日曆上預約下周的會議時間」,AI便能自動打開多個軟件、查詢數據庫、撰寫內容、操作郵件系統。這不再是科幻電影的情節,而是「OpenClaw」這類框架正在實現的未來。

AI出錯誰來負責

這種「動手能力」的展現確實令人振奮,但與此同時,它也立刻引發了監管層面的高度關注。「養龍蝦」之所以成為熱議焦點,正因為它被大模型賦予智能的「智能體」強大的執行力,赤裸裸地呈現在大家面前。它能幫你寫代碼、修改系統記錄,甚至模擬人類的點擊和輸入行為,完成跨平台、跨系統的複雜操作。

然而,一旦這種能力脫離開發者精心控制的沙盒環境,進入真實的商業與社會場景,問題便隨之而來:如果AI自主發出一封語氣不當、可能引發公關危機的郵件,責任該由誰承擔?如果它執行了一筆錯誤的金融轉帳,甚至誤解指令刪除了重要文件,造成的損失又該如何追溯?

這就引出了一個核心命題:AI看似無所不能,那是它的「能力」;但在政務、醫療、金融等關鍵領域,它是否被授權獨立運作,才是「許可」的核心。

從養到管責任機制

目前,中央網信辦及相關部委已經開始密集關注「龍蝦」的安全治理議題。國家的關注焦點非常明確:AI的自主性越高,潛在風險就越難以控制,尤其涉及數據跨境流動、個人隱私保護,以及自動化決策所帶來的倫理與法律責任。如果缺乏一套清晰的「責任分配」機制,AI的能力越強,社會對其大規模落地的恐懼感反而越深。

因此,一個關鍵問題浮出水面。如果缺乏一套清晰的「責任分配」機制,AI的能力越強,社會對其大規模落地的恐懼感反而越深。這不是否定技術進步,而是提醒我們,技術的發展必須與制度的建設同步。正如我們不會讓一個未經培訓的實習醫生獨立操刀手術,我們也不應讓AI在沒有明確責任框架的情況下進入關鍵決策領域。

底線是要對AI生成的內容建立一個事實查核機制,以及對自動化操作必須保留「人為干預」的權利。這實際上就是在為AI逐步進入更高自主層級時,搭建一道道的責任圍欄,確保技術創新不會脫離社會價值的軌道。

讓人管蝦讓蝦幫人

我就此提出一個「人機共生系統的責任階梯」的概念,用來刻畫AI自主權的漸進層級,以及每個層級對應的責任分配機制。我必須強調一個核心觀點,在AI的發展中,「能力」並不等於「許可」。雖然現在的模型已經能推理、能規劃、能調用工具,看上去已經很像「能自己工作的系統」;但當AI開始真正在真實系統中發消息、改記錄、批請求時,最重要的不再是它「會不會做」,而是「責任算誰的」。

HKGAI的團隊正研發一個人機共生智能體項目「ClawNet」,目的是構建「人+龍蝦」的協同工作網絡,它是一套而不是單純的個人效率工具。一句話來總結,那就是「蝦是蝦,人是人,人管蝦,蝦幫人」。

「ClawNet」的特點在於確保在人的控制下進行協作,而不是無差別的自動化執行。最重要的就是「由人來管理龍蝦、我的龍蝦跟你的龍蝦,在我們的管理下共同協作」。我們要構建的協同網絡,是讓機器專注在它擅長的速度和執行,而人負責判斷邊界、處理例外和最終簽署。

培養市民AI素養

未來的社會必然是人機共存的社會。我們既需要「龍蝦」這種勇於推動技術邊界的開源力量,持續拓展AI能力的疆域;同時也迫切需要一套與之匹配的責任框架,為AI的落地應用劃定安全的航道。正如我一直強調的,AI偶爾出現的「幻覺」或錯誤,並不應該成為我們恐懼的理由,反而應該視為一個重要的契機。這些錯誤提醒我們,AI不是神,它需要人類的引導和約束;同時也促使我們思考,如何在設計層面就植入安全與倫理的考量,而非事後補救。

這就需要全面培養市民的「AI素養」。這不僅包括如何熟練使用各種AI工具,更包括如何理解AI的局限性,如何判斷AI輸出的可靠性,以及在人機協作中如何劃分責任。我們需要讓每一個使用者都明白,AI是增強人類能力的夥伴,而非取代人類判斷的神明。當使用者具備足夠的判斷力時,AI的自主性才能得到更充分的釋放。

香港方案貢獻治理

憑藉香港完善的法治環境與領先的科研基礎,我們完全有條件成為全球AI應用,特別是「責任架構」定義的試驗田。香港既有普通法的靈活性,又有背靠祖國、連接國際的獨特優勢。我們可以在金融、醫療、物流等優勢領域,率先探索AI智能體應用的監管沙盒,在可控環境下測試新技術、完善新規則。這不僅能推動本地產業升級,更能為國家乃至全球的AI治理貢獻「香港方案」。

我們追求的不是創造一個全知全能的神,而是打造一個能夠與人類社會規則和諧相處、責權邊界清晰的智慧夥伴。在人工智能的世界裏,能力是引擎,而許可就是軚盤。沒有軚盤的汽車,引擎馬力越大,失控的危險就越大。今天,我們正站在能力與許可的交匯點上,唯有兩者並重,才能駕馭AI這股強大的力量,駛向更美好的未來。

作者郭毅可教授是香港科技大學首席副校長,香港生成式人工智能研發中心主任,中國工程院外籍院士,英國皇家工程院院士,歐洲科學院院士,香港工程科學院院士,美國電機電子工程師學會會士,英國電腦學會會士,中國人工智能學會會士。

文章僅屬作者意見,不代表香港01立場。

01專欄精選不同範疇專家,豐富公共輿論場域,鼓勵更多維度思考。