港大經管|人工智能威脅網絡安全 香港如何應對?

撰文:01論壇
出版:更新:

香港經濟政策綠皮書2026|周昭瀧教授

對不少企業和機構而言,數碼基建與數據正逐漸成為重要資產。數碼基建涵蓋硬體(伺服器、數據中心、網路設備)、雲端服務,以及支援數碼活動的軟件平台。數據可能包括客戶的個人資料與企業的內部資料;若這些基礎設施發生故障或資料外洩,可能導致巨額財務損失。

香港網絡安全事故頻發

香港的公私營機構一直受網絡安全事故影響。根據2020至2025年公開報告的案例,網絡安全事故的頻率、強度與複雜性持續上升。近期重大事故包括2025年9月針對某連鎖便利店的網絡攻擊,導致超過400間零售店的電子支付系統中斷,以及某奢華時裝品牌的資料外洩,影響超過40萬人。這些事故凸顯了商業活動與消費者資料在保安漏洞下的脆弱性。此外,還有多宗針對非政府及文化機構的勒索軟件攻擊,顯示技術資源有限的民間團體已成為其中一個主要的攻擊目標。

同時,個人資料私隱專員公署報告顯示,數個政府機構涉及資料外洩或資料設計缺陷,影響數千人。數字政策辦公室及政府資訊科技總監辦公室亦指出,近年政府機構發生多宗勒索軟件事故。雖然當局聲稱未有敏感資料外洩,但這類事故重複發生,顯示公共部門需強化網絡安全措施。網絡安全已成為一項必須多加關注的重要管治議題。近期事故凸顯公私營界別因系統設計缺陷或人為疏忽而面臨持續風險。公私營機構必須加強抵禦網絡安全事故,並採取適當措施做好準備,以提升問責性並減低財務與聲譽威脅。

近期生成式人工智能的使用激增;這類系統能生成類似人類製作的文字、程式碼、圖像與音訊,帶來前所未有的生產力與創新機會。然而,這項革命性技術同時也是一把威力強大的雙刃劍,正在影響網絡安全威脅。對於像香港如此高度集中且依賴數碼科技的城市而言,亟須以策略性方式,緊急應對生成式人工智能的快速使用與網絡風險的交集。

生成式人工智能時代的主要網絡安全威脅

生成式人工智能驅動的網絡安全威脅,主要特徵在於高效率、低執行成本,以及前所未有的能力來繞過人工與自動化的保安過濾機制。這些威脅可分為兩大領域:用於心理操控的語言模型武器化,以及先進惡意程式碼的大眾化。

社交工程與深偽技術武器化

生成式人工智能能夠產出高度情境化且語言上極為精準的內容,這種能力從根本上擴大了社交工程攻擊的規模與效能,使其超越一般濫發訊息,進化為高度針對性的欺詐行為。傳統釣魚攻擊通常可透過語法錯誤、外語習慣用語或過於廣泛的要求來識別,生成式人工智能卻消除了這些警示信號。攻擊者目前可以利用大型語言模型分析大量公開的企業與個人資料,例如網上個人檔案、新聞稿和社交媒體貼文,以構建高度個人化的電子郵件與訊息。

對私人企業而言,尤其是金融機構與律師事務所,這意味着攻擊手法更加精密。生成式人工智能能夠模仿高層同事或客戶的語氣、方言及溝通模式,而令要求匯款、資料披露或憑證竊取的訊息看似真實可信。香港的釣魚攻擊事故數量已顯著上升,未來更可能進一步激增,且攻擊手法將與正常溝通幾乎無法區分,從而削弱人類判斷作為主要保安防線的可靠性。

在生成式人工智能驅動的社交工程威脅中,最令人關注的其中一項是深偽技術武器化,亦即足以逼真複製特定個人的合成媒體(影片、音訊或圖像)。2024年1月,香港發生一宗全球廣為報道的事故:某跨國公司員工與利用深偽技術製作的公司財務總監及其他同事「複製影像」進行視像會議,其後被騙匯款約2億港元。此一事故凸顯公私營界別幾項關鍵漏洞。深偽技術能繞過傳統的人為與技術核實身分程序(如視像通話、針對高額交易的語音認證),並利用機構對高層管理人員或政府官員的信任與尊重,尤其是在高壓的財務或敏感決策情境中。隨着生成式人工智能工具變得更廉價且易於取得,製作高品質、逼真的深偽內容不再僅限於資源充足的攻擊者,而是全球其他犯罪集團也能輕易使用,更便於向公共與私人機構員工下手。

先進惡意軟件大眾化

生成式人工智能正迅速降低進行精密網絡犯罪所需的技術門檻,將複雜的攻擊方法轉化為可輕易取得的服務。攻擊者已開始使用生成式人工智能模型,有時甚至專門以惡意數據集進行訓練,例如WormGPT和DarkBard,從而生成惡意程式碼。這些工具便於製作多形變種惡意軟件,此類程式碼能在每次實例或執行時自動改變其結構與特徵。這種能力使惡意載荷能夠避開傳統的、基於特徵碼的防毒與保安系統,許多機構仍然沿用這些系統作為核心防禦機制。此現象對公共部門的營運韌性構成威脅,尤其是在管理關鍵基礎設施時,穩定性與持續性至關重要。攻擊者即使技術能力相對較低,亦足以對控制交通、能源分配及公共醫療的系統發動攻擊。

大型語言模型特有的漏洞與資料外洩

除了利用生成式人工智能製造外部威脅外,在內部配置或使用大型語言模型的機構也面臨模型本身的固有風險。其中一個模型特有的漏洞是提示注入攻擊(prompt injection),即攻擊者可藉以操縱提示詞或其他模型輸入,劫持模型的目標,使其洩露敏感資訊、生成惡意程式碼,或執行未經授權的操作。攻擊者還可能在專有模型的訓練數據集中微妙地加以破壞,導致模型在部署後出現偏差、受損或可被利用的行為。

另一個使用大型語言模型的即時風險,就是資料外洩。員工工作時使用公共生成式人工智能工具(例如總結文件或為程式碼「除蟲」),可能會上傳機密或敏感資料,這些資料隨後或會被用於優化大型語言模型,有機會將機密或用戶私隱洩露給第三方供應商。一項調查顯示,香港僅有少數企業已制定人工智能安全政策,足見有關風險的嚴重性。

有關全面網絡防禦的建議

根據上述分析,我們提出三大加強香港網絡安全的建議。

運用人工智能進行網絡防禦

我們必須善用人工智能與機器學習,以打擊由生成式人工智能驅動的網絡安全威脅。政府與私營界別應協力投資,使用專門設計用於實時威脅偵測與法證分析的機器學習與人工智能工具。這些工具必須能夠分析行為異常和識別可繞過保安系統的複雜威脅。政府同時應提供資助,以鼓勵和支持利用人工智能進行網絡安全防禦的研究。

政府亦應考慮強制或提供誘因,推動特別在涉及關鍵基礎設施、高度金融風險、特權存取或政府與商業環境中的敏感通訊時,使用生物特徵識別及深偽檢測技術。基於生物特徵的深偽檢測系統可設計用來識別深偽影片或音訊驗證,從而應對深偽技術帶來的主要風險。

此外,自然語言處理與生成式人工智能可用作開發專為分析通訊內容(如電子郵件、聊天訊息)而設的保安工具,透過檢測特定風格或特徵,辨別是否生成式人工智能製作的針對性釣魚攻擊。

防止生成式人工智能資料外洩與威脅

政府必須在公私營界別推廣如何有責任地使用生成式人工智能模型,確保其安全,避免成為資料外洩的源頭。由於用於訓練與微調內部大型語言模型的資料可能成為攻擊與外洩的途徑,因此當進行內部模型訓練時,應優先使用匿名化的數據,以降低投毒攻擊與資料外洩的風險。此外,資料外洩防護模組可直接集成至所有生成式人工智能介面與流程中,這些模組應自動屏蔽或拒絕任何可識別的個人資訊或機密資料,以免有關資料被輸入至外部大型語言模型服務。

同時,使用生成式人工智能與大型語言模型必須遵循安全軟件開發的最高標準。在配置任何高風險的生成式人工智能模型前,必須進行強制性對抗測試,其中涉及模擬攻擊,包括提示注入攻擊、資料投毒,以及嘗試提取訓練中的敏感資料,以便主動識別並修補漏洞。機構應使用持續監控工具追蹤模型的效能與輸出完整性,若模型效能或合規性隨時間下降,就可能表示存在隱蔽的持續性對抗攻擊或非故意偏差,需立即進行人為干預與重新校準。政府應在公私營界別中積極推廣這些做法並提供誘因。

培訓與意識提升

由於生成式人工智能工具易於取得,許多員工可能傾向使用公開可用的軟件,而非僱主所批准的。因此,機構必須制定明確政策,規範哪些任務可以使用生成式人工智能工具、哪些工具可以使用,以及可以提供什麼資料給這些工具。

此外,由於大多數成功的網絡攻擊都利用人類弱點,強制且持續的培訓至關重要。培訓須聚焦於最新的安全威脅,例如辨識深偽媒體及識別高度個人化的網絡釣魚攻擊。同時,機構還需進行有系統的員工培訓,使員工了解以負責任且合乎道德的方式使用生成式人工智能工具的必要,以及不當使用這些工具的相關風險(例如將機密資料輸入公共大型語言模型的顯著危險)。

各機構都必須培養互相支援的文化,使員工能夠在有安全感和信心的情況下,報告可疑活動或意外資料外洩,而不必擔心遭受懲罰。這有助員工從安全隱患變為防禦前線。

值得注意的是,香港不少機構(尤其是中小型企業及非政府組織)缺乏資源來進行此類培訓與實施安全措施。政府應考慮提供協助,包括舉辦培訓工作坊及提供專注於生成式人工智能與網絡安全的資助。

(香港大學經管學院1月發表《香港經濟政策綠皮書2026》,由港大教授和研究人員,以及多位國際知名學者共同撰寫,就多個香港熱門議題作出研究分析,並從嶄新角度給予政策建議。《香港01》獲授權轉載。)

作者周昭瀧教授是港大經管學院創新及資訊管理學教授。

文章僅屬作者意見,不代表香港01立場。

01論壇歡迎投稿。請電郵至01view@hk01.com,附上作者真實姓名、自我簡介及聯絡方法。若不適用,恕不另行通知。香港01保留最終編輯權。