加拿大槍擊風暴︰AI的風險與監管|方保僑
加拿大卑詩省Tumbler Ridge小鎮二月十日發生校園槍擊案,震驚全球,也讓人工智慧安全議題再度成為焦點。十八歲少女Jesse Van Rootselaar持槍闖入當地中學,槍殺八人後自盡,受害者包括其母、十一歲同母異父弟弟及多名學生與教職員。調查發現,她曾於去年六月因在OpenAI的ChatGPT平台上生成槍枝暴力情境內容遭封鎖,卻以第二帳號規避禁令持續使用。事件曝光後,OpenAI承認若依現行標準,當時本應通報執法機關。此案引起加拿大政府強烈反彈,並暴露全球AI監管框架的急迫需求。
《華爾街日報》報導指,OpenAI內部曾激烈討論是否通報警方。十多名員工審閱Jesse帳號的暴力內容,最終因判定未達「迫在眉睫的風險」而僅封鎖帳號。卑詩省省長David Eby批評這是「災難級的錯誤」,更令人震驚的是,Jesse第二帳號直至警方公開身份後,OpenAI才發現並即刻移交資料。事後,OpenAI致函加拿大AI部長Evan Solomon,表示已修訂通報準則,未來即使未明示目標或時機,只要涉及暴力風險也會啟動預警機制,同時與心理健康專家和執法機關建立合作及即時通報機制,設立加拿大專屬聯絡窗口。
加拿大政府隨即展開行動,二月廿四日,OpenAI安全團隊應召赴渥太華,接受公眾安全、司法及文化部長等高層質詢。然而官員形容會談「令人失望」,OpenAI未提出實質新措施。加拿大司法部長警告,若公司不迅速作出改變,政府將考慮立法干預。加拿大目前尚無針對消費級AI聊天機器人的監管框架,與歐盟及英國形成對比,此缺口在Tumbler Ridge慘案中暴露無遺。
Tumbler Ridge事件揭示,生成式AI的風險不僅在技術層面,更涉及倫理與治理。ChatGPT等工可模擬暴力色情,若被濫用於策劃或心理預演攻擊,即使有警示機制與人工審核,內部決策猶豫仍可能釀成悲劇。其次,帳號規避機制漏洞讓高風險用戶輕易重返平台,暴露技術防線薄弱;AI公司設立過高的通報門檻,則恐延誤預防性干預,使潛在威脅演變為社會災難。
要防範此類AI風險,須多管齊下。首先建立統一國際標準勢在必行,歐盟《AI法案》已將高風險AI列管,強制透明與問責,加拿大可借鏡其制度,立法強制平台即時通報暴力意圖,並與執法共享用戶數據。其次,強化企業內部治理,OpenAI雖承諾修訂準則,仍應透過獨立審計與外部監督確保執行到位。再者,跨國合作最為重要,AI無國界,個別國家難以獨善其身,G7或聯合國框架可推動全球通報機制。同時,社會亦應加強心理健康教育與AI素養,提升公眾辨識與防範能力。最後,技術創新亦是防線,如透過多模態偵測與行為模式分析,預測及阻截高風險用戶。科技進步應造福人類,而非助長悲劇。唯有監管者與企業攜手,建立可信、安全與透明的體系,才能確保AI成為守護者,而非隱形兇器。
【財經專欄】技經四方.方保僑
於資訊、通訊、科技及電子消費品市場工作超過二十年,引入過不少新科技產品,並創辦多個業界組職,及為多個非牟利機構擔任委員提供專業意見。現任香港資訊科技商會榮譽會長、香港互動市務商會創會及榮譽會長、電子學習聯盟創辦人、世界資訊通訊與服務業聯盟董事、香港金融科技商會召集人、電訊事務管理局辦公室電訊規管事務咨詢委員會成員、運輸署智慧交通基金管理委員會委員、樂施會董事會成員、香港小童群益會資訊科技委員會委員、香港紅十字會資訊科技委員會成員等。
免責聲明︰以上內容僅代表作者的個人立場和觀點,不代表香港01的任何立場,香港01亦無法核實上述內容的真實性、準確性和原創性。
另外,以上純屬個人研究分享,並不代表任何第三方機構立場,亦非任何投資建議或勸誘。讀者務請運用個人獨立思考能力自行作出投資決定。