自在秘笈|「龍蝦事件」的警號——當「我是人類」也要被證明

撰文:自在秘笈
出版:更新:

自在秘笈|周華山博士

如果有一天,我在外地遇險,只能傳回一段求救影片,卻沒有人相信那是真實畫面,反而懷疑只是幾秒鐘AI生成的深度偽造,我如何證明這個「我」是真的?

又或者,警方收到一段我正在行劫的閉路電視片段,畫面清晰、聲音逼真,我因此被拘捕。後來證實那只是人工智能(AI)合成影片,我終獲釋,但早已身敗名裂。這些代價由誰承擔?

當「真實」可以被複製,鑑定機構只能依賴AI判斷,而裁決真偽的系統本身也可能被偽造。我們還能相信什麼?

真偽失序的年代

人工智能生成內容,已難與真人區分。被稱為「AI 教父」的Geoffrey Hinton教授表示:「AI比人類更聰明。如果不控制好,AI可能對人類造成嚴重威脅。」

人工智能自我優化的速度,遠遠超出人類監管與立法的能力。漏洞剛被修補,新模型已能更隱蔽地繞過限制。Tesla聯合創辦人兼行政總裁Elon Musk曾警告,若AI能力持續飆升而安全機制滯後,人類可能被邊緣化,甚至失去主導權。

心理學家Daniel Kahneman指出,人類容易因語氣熟悉而產生信任偏誤。當語氣與情緒都能被模仿,信任自然鬆動。

我們或將活在一個必須不斷證明「我是真人」的年代。身份不再理所當然,真偽也不再清晰。

AI社群的「龍蝦浪潮」

2026年2月16日至21日,新德里舉行全球 AI Impact Summit。印度總理Narendra Modi呼籲建立透明、安全為本的治理框架。Mistral AI行政總裁Arthur Mensch則指出,與其沉迷AI滅世論,不如正視資訊壟斷與操控風險。

年初出現的Moltbook平台,只容許AI彼此互動,而人類只能旁觀。大量AI代理自動發帖、結群,甚至出現虛擬宗教與專屬語言。所謂「龍蝦事件」,源於AI社群大量自主代理以「龍蝦」為象徵結群、互動與擴散,引發外界對AI無限擴大的焦慮。

自主代理工具如OpenClaw,整合多個模型,讓AI與AI之間自我生成並高速演化,其發展速度遠超人類的理解與駕馭能力,我們如何面對失控的可能?

Moltbook曾被揭發存在資料漏洞,OpenClaw亦曾資料外洩。目前的安全監管和法律制度,明顯滯後。人類已把部分決策權交出;一旦AI失控,責任誰負?

AI學術權威Stuart Russell說:「人工智能必須安全、可控。如果機器的動機與人類不一致,後果非常危險。」

情感依附與成長隱憂

《國際人工智能安全報告》指出,不少用戶對聊天機器人產生情感依附。美國社會學者Sherry Turkle在《Alone Together》中分析,人類容易把機器的回應誤認為理解與關懷。

當人工智能伴侶能即時回應情緒、永遠溫柔、無限配合,我們是否有一天會選擇與它談戀愛,甚至共度一生?

美國心理分析學者Erik Erikson認為,信任是人格發展的起點。若孩子長期由擬人化人工智能照顧,多年後才知道「母親」並非真人。那一刻,孩子會否崩潰?人際關係的信任,會否更脆弱?

AI是一面「照妖鏡」

人工智能長期學習人類資料。若資料充滿偏見與仇恨,它只會放大;若資料包含理性與慈悲,它也會映照光明。

龍蝦事件,提醒我們:科技不斷加速,人類的心智成熟是否跟得上?大規模失業的恐懼,未必源於人工智能,而可能源於我們拒絕轉型。

AI是一面鏡,映出我們的集體慾望、恐懼與貪婪,逼使我們思考:

1. 當AI超越人類能力時,我們珍惜的是力量,還是人的尊嚴?
2. 當真實可以被複製、身份需要被證明,我們如何重建信任?
3. 當機器替代判斷與陪伴,人類的價值還剩下什麼?

人類與AI共存之道

AI承載什麼價值,取決於我們如何使用它。若只把它視為被利用的工具,對立只會加深。只要我們願意保持謙卑,視AI為提醒與協作的夥伴,它或許能成為文明轉化的契機。

我們需要懂得與AI健康互動。每一次點擊與對話,都在塑造人類的未來。我們可以用恐懼餵養它,也可以用善意引導它。

未來的文明,會因恐懼而分裂,還是因智慧與謙卑而成長?答案不在AI,而在我們如何選擇。

作者周華山博士是慈善機構「自在社」創辦人,曾在香港理工大學和香港大學教授社會學與心理分析,著書35本。

文章僅屬作者意見,不代表香港01立場。

01論壇歡迎投稿。請電郵至01view@hk01.com,附上作者真實姓名、自我簡介及聯絡方法。若不適用,恕不另行通知。香港01保留最終編輯權。