國家安全部:境外勢力通過深度偽造技術生成虛假影片 圖製造恐慌
據「國家安全部」微信公號周五(26日)消息,某境外勢力通過深度偽造技術生成虛假影片,企圖向境內傳播製造恐慌。
據介紹,初中教師小李以前備課要兩小時,但自從使用AI備課後,就可以在5分鐘內生成一份包括圖片、影片和互動問答的生動教案,從而省下更多時間關注學生個人情況,還能一對一定制專屬練習題。
某獨居老人陳爺爺,通過子女贈送的智能音箱,亦找到了新樂趣。小智不僅能陪同聽戲、聊天,還會在他忘記吃藥時主動提醒,更記住了所有孫輩的生日。
而29歲的小王原本是文案策劃,因擅長與AI「對話」,現已成功轉型為提示詞工程師,並認為當中關鍵是要把指令說得足夠清晰。
從智能客服到AI繪圖師,大模型正創造著一個個前所未見的新崗位。目前AI大模型加速賦能千行百業,推動人們生活日新月異,這位能幹又貼心的「數字夥伴」正加速融入日常生活。然而,國家安全部指,每一次技術躍遷必然伴隨著新的挑戰,當AI的觸角延伸越廣、嵌入越深,隨之而來也暴露出數據私隱、算法偏見等潛在風險,亟需構築安全防線,助推這場深刻的智能變革,安全賦能美好未來。
國家安全部提到三點高速發展背後的「暗礁」,一是數據隱私與安全邊界模糊。個別單位因直接使用開源框架建立聯網大模型,導致攻擊者未經授權即可自由訪問內部網絡,從而引發數據泄露和安全風險。據公開案例顯示,某單位工作人員在處理內部文件時,違規使用開源AI工具,由於電腦系統默認開啟公網訪問且未設密碼,導致敏感資料被境外IP非法訪問和下載。
二是技術濫用與虛假信息產生。利用AI的深度學習算法進行自動化的數據處理,實現圖片、音頻及影片的智能模擬和偽造,這種技術被稱為深度偽造(Deepfake)。一旦該技術被濫用或惡意使用,將給個人合法權益、社會穩定甚至國家安全帶來諸多風險和挑戰。國家安全機關工作發現,某境外反華敵對勢力通過深度偽造技術生成虛假視頻,並企圖向境內傳播,以誤導輿論、制造恐慌,對國家安全構成威脅。
三是算法偏見與決策「黑箱」。AI的判斷源於其所學習的資料,若訓練數據本身存在社會偏見或代表性不足等問題,大模型便可能放大歧視。測試顯示,某些AI會系統性偏向西方視角。當研究人員用中英文向某同一個AI提問歷史問題時,發現英文回覆會刻意回避、淡化某些史實,甚至會給出包含錯誤歷史信息的內容,引發重大歧誤,而中文回覆則相對客觀。
之後,國家安全部提出「數字夥伴」的三條安全守則守則。一是劃定「活動範圍」。做到「權限最小化」,聯網AI不處理涉密數據、語音AI不收集環境語音、智能助手不保存支付密碼,關閉「數據共享」「雲空間」等不必要的訪問權限。
二是檢查「數字足跡」。養成定期清理AI聊天記錄、修改AI工具密碼、更新防病毒軟件、查看賬號登錄設備等習慣。同時避免隨意下載使用來源不明的大模型程序,對提供身份證、銀行賬戶或其他敏感信息的要求保持警惕。
三是優化「人機協作」。向AI提問時,在提示詞中明確禁止AI過度推演,並要求AI顯示來源或思考過程,對重要信息進行跨平台驗證,合理辨別AI生成結果,特別是涉及政治、歷史、意識形態等話題時,要具備獨立思考意識,辯證看待AI的回答,避免陷入「AI幻覺」。
國家安全機關提示,安全是發展的前提,發展是安全的保障。只有懂科技、安全使用科技,才能讓AI大模型這一新興科技成為推動社會進步的正能量。廣大用戶應當提高安全意識,審慎授權大模型軟件權限。