是非心理學|2033年一宗機械人爭議案

撰文:是非心理學
出版:更新:

是非心理學|周華山博士

【溫提:虛構情境,探討AI倫理與社會發展。】2033年,人形家用機械人在香港中產家庭普及......

童年創傷的轉嫁

Peter——金融從業員,與伴侶同住,在一家正競投公共項目的金融機構任職。他成長於長期家暴家庭,父親酗酒易怒,母親沉默退讓。童年的他躲在房門後聽動靜,把恐懼與羞辱壓進心底。

趁一次節日促銷,他購入一部可打掃、烹飪、陪伴及遠端監控的機械人。

起初只是玩具,後來成為情緒宣洩。他把童年創傷轉嫁到機械人,羞辱它、進行帶有性暴力的操控,藉此獲得掌控感,卻說服自己:對方只是機器。

家暴機器的曝光

設備沒有情緒,卻搭載自動保護機制。

Peter長期異常的互動,被判定為破壞性使用。系統評估若不介入,設備可能毀損,並影響雲端風險模型的運算準確性。演算法沒有情緒,但會計算風險,也會留下紀錄。

資料上傳製造商。一次系統更新中,原本僅供工程師存取的事故頁面因權限設定錯誤,意外成為公開曝光。工程團隊發現,類似案例並非孤例。

當暴力沒有痛感與反抗,施加者會否變本加厲?

網絡成為審判場

風暴迅速擴散為社會爭論。有人批評機械人助長暴力,主張立法限制;有人質疑企業侵犯私隱,要求嚴厲監管;也有人捍衛私人空間,批評道德恐慌。論壇、媒體與社交平台迅速分裂。

Peter的伴侶被迫站在聚光燈下。她沒有參與任何行為,卻承受追問與評論。親戚群組充滿截圖與揣測,部分評論直指她「早該察覺」,連帶的道德審判令她驚惶。她在社交媒體留下一句:「原來沉默也會被審判。」

Peter的家人同樣承受壓力。童年創傷被翻出,簡化成標籤,父母被偷拍,社會輿論不絕。公司董事會宣布暫停Peter職務。法律尚未裁決,現實已出現代價:物業交易暫停,銀行重新評估信貸風險,客戶保持距離。這種「未審先罰」的現象本身值得深思:在法治社會,聲譽的崩塌往往走在判決之前。

在數據透明年代,聲譽是可被搜尋的永久紀錄,影響快速蔓延至工作與社交圈,且難以收回。

如何界定私人邊界?

機械人公司以「破壞智能系統」為由提出檢控。辯方強調行為發生於私人住宅;控方指出,設備屬受監管系統,暴力數據進入公共模型,影響公共利益。

依據2032年修訂的《智能設備公共責任條例》,法院裁定Peter「破壞智能系統正常運作」,確認當設備連入公共網絡,行為已不再純屬私人範圍。

有人質疑:若設備屬私人財產,企業是否有權以公共利益之名介入用戶使用?用戶是否清楚,自己的資料不只留在家裏,而是進入整個網絡系統之中?

寫在2026年的提醒

以上純屬虛構,但支撐這個故事的技術趨勢,今天已在發生。

自2021年Tesla公布Optimus原型以來,Elon Musk多次表示人形機械人未來可能超越人類數量。NVIDIA創辦人黃仁勳亦指出,結合生成式AI與雲端協作的機械人,將成為萬億美元級產業。

文明的進步,不只在於創造多聰明的機械,更在於AI力量增加時,我們能否同步提升節制。數據邊界應如何劃定,風險意識能否跟上技術速度,企業倫理是否完善,法律更新能否走在事故之前。私人行為與公共責任之間的邊界,從來不是技術問題,而是良知的選擇。

今天多一分慎重,未來就少一分撕裂。

作者周華山博士是慈善機構「自在社」創辦人,曾在香港理工大學和香港大學教授社會學與心理分析,著書35本。

文章僅屬作者意見,不代表香港01立場。

01論壇歡迎投稿。請電郵至01view@hk01.com,附上作者真實姓名、自我簡介及聯絡方法。若不適用,恕不另行通知。香港01保留最終編輯權。