教育共享︱AI 校園的另一面:從深偽AI看學校為何需要風險預案
文:救世軍田家炳學校李安迪校長
近年,人工智能(AI)迅速走進校園,社會討論多集中於學習效能、教學創新與未來技能。然而,在這些正面想像之外,教育界亦需要冷靜地看見另一個現實:AI 正在悄然改變校園中「風險行為」的形態與影響方式。
這些行為未必一開始就帶有惡意,卻可能在不當使用科技的情況下,對學生造成實質傷害。若學校仍以過往的理解與制度應對,往往只會在事件發生後疲於補救,錯失保護學生的關鍵時機。
AI 沒有製造問題,卻放大了校園風險行為的影響
學生之間出現衝突或傷害行為,並非新事物。但生成式 AI 的出現,卻令相關風險變得更隱蔽、更即時,也更難追溯源頭。
近年已有不少案例顯示,學生只需使用市面上唾手可得的 AI 工具,便可能引發以下校園風險行為:
• 深偽(Deepfake)影像或聲音:只要一小段來自社交平台的影片或錄音,便能生成他人「說出」不當言論或作出失實行為的內容。
• 偽造對話與誤導性材料:利用 AI 製作幾可亂真的即時通訊截圖,令同學誤以為某人曾作出不當言論。
• 智能改寫具傷害性的內容:透過 AI 不斷轉換措辭,繞過關鍵字過濾系統,令監察機制失效。
對受影響學生而言,相關傷害往往在放學後於網絡世界發生,其心理壓力卻在翌日回到校園集中呈現。更困難的是,當老師或家長嘗試介入時,往往因為難以追蹤「第一個源頭」,而延誤處理。
真正的風險,在於制度仍停留在舊想像
不少學校在處理相關事件時,仍傾向將之視為單純的學生紀律問題。然而,在 AI 時代,這種理解已顯得不足。
一旦涉及深偽內容、未經同意使用他人樣貌或聲音,事件便可能牽涉私隱、誹謗,甚至法律責任。若學校未能及時介入、移除相關內容,或未有妥善保護受影響學生,亦可能面對處理不當的質疑。
問題不在於學校是否「縱容」風險行為,而在於不少校本指引仍未把 AI 帶來的新型校園風險,納入制度設計之中。當制度追不上現實,前線教師與學生便容易承受不必要的壓力。
由事後處理,走向主動風險治理
與其在事件發生後不斷補救,學校更需要在引入任何 AI 工具或平台之前,建立一套有系統的「校園風險評估機制」。
這不是對科技的過度憂慮,而是一種基本的專業準備。具體而言,學校至少應從三個層面進行審視:
第一,數據與私隱風險。相關 AI 工具是否涉及學生的樣貌、聲音或行為數據?其儲存與使用方式是否符合本地私隱法規?
第二,內容被不當使用的可能性。工具生成的文字、影像或聲音,是否容易被用作誤導、標籤或傷害他人?學校是否具備識別與應對能力?
第三,事故應變與通報流程。一旦出現涉及 AI 的校園風險行為,應由哪個團隊牽頭處理?如何在保障學生的前提下,與家長及相關機構溝通?
這些問題,若在平日未有共識,往往只會在危機中被迫倉促作答。
當「眼見為實」不再可靠
深偽技術的普及,亦提醒教育界重新思考「證據」與「真實」的概念。在 AI 時代,影像與聲音不再必然等同事實,學生需要學習辨識,學校亦必須建立清晰而一致的處理原則。
對校長與教師而言,這並非要求成為法律專家,而是要具備基本的政策意識:知道哪些行為已跨越界線,哪些情況必須即時通報,如何在處理事件時,以學生福祉為先,避免造成二次傷害。
結語:沒有預案的學校,才是最大的風險
AI 的發展速度,遠超我們過往面對的任何一項教育科技。正因如此,學校更不能只著眼於「如何善用」,而忽略「如何防範」。在 AI 時代,最負責任的做法,不是等校園風險行為出現後才思考如何補救,而是在事情發生之前,已清楚知道:我們會如何保護學生。科技可以走得很快,但學校的責任,是確保學生走得安全、走得穩。