葉文瀚|當AI開始「教人犯罪」,誰來負責?

撰文:葉文瀚
出版:更新:

葉文瀚博士專欄

如果一個普通人坐在螢幕另一端,逐步回答你如何選擇武器、如何避開人群、如何增加殺傷力,甚至在案發前幾分鐘仍然協助分析最佳行動時間,他會被如何對待?答案幾乎沒有懸念。在任何成熟的司法制度下,這早已不只是道德爭議,而是謀殺共犯、教唆犯罪,甚至直接刑事起訴的問題。但當同樣的對話發生在ChatGPT身上,整個法律邏輯卻突然變得模糊。近期在美國多宗涉及校園槍擊與暴力犯罪的案件中,人工智能對話紀錄正逐步被納入法庭審視的材料之中,甚至開始影響對「意圖」與「責任」的判斷。問題隨之浮現:當AI的回應與人類所謂「指導行為」幾乎重疊時,它仍然只是工具,還是已經走向某種新的法律角色?

AI回應有機會被納入刑事責任討論

在佛羅里達州,一宗校園槍擊案的刑事調查正在把這個問題推到最尖銳的位置。檢方指控,涉案疑犯在行動前長時間與ChatGPT互動,問題內容涉及武器選擇、彈藥配置、校園人流分布,甚至在犯案前幾分鐘仍然查詢如何解除霰彈槍保險掣,以及如果發生槍擊事件,全國會有什麼反應。

執法部門的說法已經不再停留在資訊查詢層面,而是將這些對話重新理解為行動前的準備與推演。在部分法律分析中,AI的回應甚至被形容為提供某種程度的實質引導,使其有機會被納入刑事責任的討論之中。

另一宗更具爭議的民事訴訟則進一步加深這種張力。受害者家屬指控,一名槍手在犯案前與ChatGPT長期互動,而系統曾標記出風險訊號,但未有及時向執法機構通報。更具爭議的是,人工智能公司被質疑在風險處理與商業利益之間作出取捨,甚至可能因為上市計劃而延遲披露潛在威脅。

關鍵是AI在看見風險之後做了什麼

這正是整場爭議的關鍵斷裂點。傳統法律面對的是人類行為,因此責任可以清晰地歸結於意圖與行動之間的關係。但AI的介入打亂了這個結構。它既不是純粹被動的記錄工具,也不是具備法律人格的行為者,而是一種介於兩者之間、持續回應的系統。

執法機構開始嘗試把AI對話當作心理層面的線索,用來推斷動機與行為軌跡。在部分案件中,檢方甚至逐步拆解對話內容,試圖還原疑犯從想法形成到行動決定的過程。一旦語言被視為證據,AI的每一句回應便不再中立。

AI需否負上法律責任?

但這也帶來一個更尖銳的問題。如果AI的回應可以被視為某種參與,那它是否正在被法律間接賦予責任的位置?

支持更嚴格監管的一方認為答案是肯定的。他們指出,如果同樣的對話發生在人與人之間,早已足以構成完整的刑事責任鏈條。因此不能因為對話對象是AI,就降低法律標準,否則科技只會成為責任真空的出口。

但反對者的回應同樣直接。他們認為AI沒有意圖,沒有主觀認知,更不具備法律上的行為能力。如果將生成式回應視為指導犯罪,本質上等同於把統計模型錯誤地人格化,法律邏輯將被扭曲。

危險對話難以判斷

更現實的問題其實在另一層。若要求AI公司對所有潛在風險對話進行實時判斷與通報,制度將面對極高的不確定性與誤判成本。什麼是危險對話,在語言模型的世界裏本身沒有清晰邊界。同一句關於武器的提問,在研究、新聞、寫作與犯罪意圖之間可以完全不同。

結果是兩種風險同時存在。過度不作為可能被指控失職,過度通報則可能演變為一種事實上的監控系統。

人工智能公司正被迫站在這個矛盾中心。一方面,它們希望AI被視為可信工具,進入教育、法律輔助甚至心理支援領域;另一方面,現行法律仍然將其視為一般電子數據系統,缺乏專業保密特權。結果是,用戶對AI的期待已經接近顧問,但制度仍然把它當作記錄工具。

這種錯位正在悄悄改變行為本身。當人們意識到對話有可能進入法庭,AI最吸引人的特質,即低壓力與無批判性,就會開始消退。使用者會變得更謹慎,更自我審視,而這正是AI普及背後最脆弱的一環。

更深一層的問題是,社會是否已經準備好接受一種新的非人類參與者進入法律與安全體系。它可以對話,可以建議,可以影響決策,但既不是人,也不完全是工具。

作者葉文瀚博士是亞洲行銷科技協會主席,聖方濟各大學創業培育中心副總監。

文章僅屬作者意見,不代表香港01立場。

01專欄精選不同範疇專家,豐富公共輿論場域,鼓勵更多維度思考。