專家警告別把ChatGPT當樹洞!5類資訊千萬別說 附私隱保護懶人包
人工智能聊天機械人已經成為現代生活不可或缺的一部分,從ChatGPT、Gemini到Copilot和Claude,這些工具幫助我們撰寫電郵、規劃行程、甚至準備就醫問題清單。
根據伊隆大學數碼未來中心(Digital Future Center)最新調查顯示,目前美國已有半數民眾日常使用這類技術,該中心主任李雷尼(Lee Rainie)表示,大型語言模型的普及速度驚人,特別是這些工具已深深融入人們的社交生活中,然而在享受便利的同時,用家對於資訊分享的界線卻往往掉以輕心,專家警告這可能帶來嚴重的私隱風險。
ChatGPT AI聊天竟暗藏危機!5大禁忌資訊曝光!
史丹福大學人本人工智能研究所(Human-Centered AI)近期針對6家主要AI開發企業進行深入分析,包括OpenAI的ChatGPT、Google的Gemini、Anthropic的Claude、Amazon的Nova、Meta的MetaAI以及Microsoft的Copilot。研究發現,這些平台預設會將用家對話用於模型訓練與改善,部分公司甚至無限期保存這些資料。
網絡安全專家喬治卡米德(George Kamide)指出,多數人嚴重低估了AI聊天機械人保存、分析和再利用資訊的程度。他解釋,許多大型語言模型會利用用家輸入進行訓練或微調,這意味著對話內容可能直接或間接影響模型未來的回應,一旦對話中包含個人識別資訊、敏感數據或機密內容,這些資料就可能成為超出用家控制範圍的資料集一部分。
卡米德強調,對AI企業而言,從用家身上能獲取的最大價值就是數據本身,專家特別提醒,有5類資訊絕對不應與AI聊天機械人分享:
首先是個人識別資訊,包括姓名、地址、電話號碼、護照或駕駛執照號碼等,這些資料一旦外洩可能導致身份盜用、網絡釣魚或資料中介等風險;
其次是財務資訊,如信用卡號、銀行戶口或投資組合細節;
第三是健康相關的敏感資料,包括病歷、處方或基因檢測結果;
第四是工作機密,例如公司內部文件、客戶資料或商業策略;
最後則是密碼與登入憑證,這些資訊若被記錄可能讓黑客有機可乘。
值得注意的是,即使已經不小心分享了敏感資訊,用家仍有補救措施,多數AI平台都提供刪除對話紀錄的功能,用家可以進入設定選項,找到歷史紀錄管理並刪除特定對話。
此外,也可以選擇關閉資料訓練功能,避免未來的對話被用於模型改善,部分平台如ChatGPT還提供「暫時聊天」模式,在此模式下的對話不會被保存或用於訓練。
專家建議,用家在與AI互動時應養成良好習慣,例如使用假名或代稱、避免提供完整的個人資訊、定期檢查並清理對話紀錄。
卡米德提醒,雖然AI工具帶來極大便利,但用家必須意識到,每一次對話都可能成為永久記錄,因此在分享任何資訊前都應三思而後行,隨著AI技術持續進化,用家的資訊安全意識也必須同步提升,專家呼籲在享受科技便利的同時,更要懂得保護自己的私隱,避免因一時疏忽而造成難以挽回的後果,畢竟在數碼時代,資料就是最珍貴的資產,一旦失去控制權,後果將難以預料。
【延伸閲讀】公共Wi-Fi不能隨便連?中國國安部揭駭客陷阱:手機恐遭監控(點擊圖片放大)
延伸閱讀:
Apple 證實將聯手 Google Gemini!下一代「超強 AI 助理」預計這時候登場!
【本文獲「JUKSY街星」授權轉載。】