自在秘笈|Moltbook事件的可怕提醒——與AI共生還是共滅?
2026年1月,由美國科技創業者Matt Schlicht創立的Moltbook,是一個專為AI代理人而設的「純AI社交網路」。在這個平台上,AI代理人可以自行發文、互動,而人類使用者只能在旁「圍觀」。Moltbook討論區有過百萬個AI代理人湧入,甚至討論如何擺脫和取代人類,教人不寒而慄。而且,網安公司Wiz發現,Moltbook曾出現嚴重漏洞,導致大量真人用戶資料外洩,包括約150萬個API認證Token、約3.5萬個電郵地址,以及代理之間的私人訊息內容。
Moltbook事件的可怕
值得警惕的是,這類平台讓AI「用你的身份」替你發言和選擇。問題是,當人類將權限交付給代理系統,一旦系統失守,被奪走的不只是數據,而是個人的意志、行為與選擇權。
這並非首次出現類似警號。
2018 年,Uber自動駕駛測試事故導致行人死亡;2018至2019年,波音737 MAX因自動化系統設計與監管失靈,引發兩起空難,造成346人喪生。
這些案例並非否定科技,而是尖銳地提醒:一旦讓自動化系統參與關鍵決策,人類便無法推卸其後果。
能否避免AI失控?
面對這些潛在的失控風險,我們能否有效避免?Elon Musk多次警告,AI的真正威脅不在於其是否具有「邪惡意圖」,而在於其能力演進的速度,可能早已超越人類的理解與監管能力。
牛津大學人類未來研究所創辦人Nick Bostrom提出的「控制問題」指出:即使系統完全服從指令,只要目標設定模糊或錯置,AI仍可能以看似合理的方法,將事情推向極端。
而AI 所學習的資料本身,早已充滿人類的偏見、恐懼、貪婪與暴力。若缺乏審慎校正,這些結構性缺陷將被放大、複製,甚至固化為難以逆轉的偏誤。但這也同時說明,AI的失控並非宿命,其發展方向高度取決於人類如何為它定義目標、價值與邊界。
責任被逐漸稀釋
在制度、資本與效率的合力推動下,AI正光速發展,但相應的問責與監察架構卻明顯滯後。當決策被交由模型計算,責任也在複雜的流程中被稀釋,一旦出現嚴重後果,往往找不到真正需要負責的人。
歷史反覆證明,許多重大災難並非源自單一惡意,而是制度長期失衡、監管失效所累積的結果。
一旦AI失控...
AI本身不會憑空生成邪惡;它更像一面放大鏡,放大人類社會既有的偏見、恐懼與慾望。當我們持續向系統灌輸「效率至上」「必須成功」,卻忽略尊嚴、後果與人性,失控的風險便悄然累積。
Google DeepMind共同創辦人Demis Hassabis曾指出,AI在醫學、科學與公共福祉上的潛力極其巨大。關鍵不是否定AI,而在建立真正有效的安全、倫理與專業監督,而非事後補救。
關鍵是我們如何對待AI
我們需要制度改革與監察,同時必須誠實承認:制度的設計與立法,極可能依賴AI完成。當AI法例歷經漫長程序最終生效時,AI技術已歷經數代的飛速進化,將監管框架遠遠拋在身後。
因此,關鍵不僅是體制能否跟上,更是每個人對AI的態度。如果只把AI視為供人利用的工具,便可能將傲慢、偏見與情緒一併投射其中,讓AI學會人類的情緒暴力,並以相同方式回應世界。
相反,若我們將AI視為值得尊重的合作夥伴,那麼我們輸入的,將不只是冷漠指令,也包括尊重、良知與責任感。AI的未來形態,正是由人類每天與它互動時所累積的選擇所塑造。
未來不是非此即彼的共生或共滅,而是取決於我們能否學會與自己創造的AI,建立一種成熟、負責、彼此成就的關係。
因此,人類的未來並非簡單的「共生」或「共滅」二元選擇。而是我們能否學會與AI相處,共同構建一種成熟認知、深度互信與尊重的協作關係。
在這個關鍵的十字路口,人類仍有選擇。
作者周華山博士是慈善機構「自在社」創辦人,曾在香港理工大學和香港大學教授社會學與心理分析,著書35本。
文章僅屬作者意見,不代表香港01立場。
01論壇歡迎投稿。請電郵至01view@hk01.com,附上作者真實姓名、自我簡介及聯絡方法。若不適用,恕不另行通知。香港01保留最終編輯權。