是非心理學|當真相可以被「生成」 AI假新聞中的良知
是非心理學|周華山博士
早上起床,你打開手機,看見一段影片:某國總統有重大宣布;某國際巨星捲入醜聞。畫面清晰、語氣自然、細節完整。你會停下來查證嗎?還是已經按下分享?生成人工智能(Generative AI)迅速發展,「眼見為憑」不再可靠。AI不只可以寫文章、作畫、配音,還能模擬人臉與聲音,真假難分。我們面臨資訊秩序與心理安全的雙重挑戰。
假新聞為何跑得更快?
2018年,Vosoughi、Roy與Aral發表於《Science》的研究分析了Twitter上約12萬則新聞傳播情形,發現假新聞的擴散速度,遠高於真實新聞。研究指出,假新聞往往更具新奇性與情緒刺激,因此更容易引發轉發行為。
只需幾句指令,就能生成聳動標題與逼真畫面;我們更容易按下「分享」。當生成技術降低製作成本,人類情緒反應卻維持原始機制;兩者之間的落差,成為假新聞快速擴散的溫床。
深度偽造的政治衝擊
2022年俄烏戰爭期間,網上曾流傳一段影片,顯示總統澤倫斯基宣布向俄羅斯投降。雖然迅速被識破,但虛假影像仍足以造成心理動盪。
2024年1月美國總統初選,曾出現模擬拜登聲音的AI電話錄音。深度偽造未必需要長期存在,只需在關鍵時刻動搖信任,便足以影響選舉氣氛與社會情緒。
這些例子顯示,未來的政治競爭,除了理念之爭,更是真偽之爭。
名人形象:偶像被利用
2023年,教宗方濟各穿著白色羽絨外套的照片在全球瘋傳,觸發「新奇效應(Novelty Effect)」,容易被記住與轉發,後證實為AI生成。2024年初,歌手Taylor Swift遭遇AI生成的不雅影像在網路擴散,許多支持者感到憤怒與受傷。
此外,全球首富Elon Musk也曾成為AI投資詐騙影片的主角。詐騙者利用其成功形象推薦加密貨幣。權威偏見(Authority Bias)使人們更容易相信名人的推薦。
AI「幻覺」:流暢不等於正確
生成式AI本身可能會產生錯誤資訊,研究者稱之為「資訊幻覺」。這類內容語句流暢、語氣自信,卻可能包含捏造的引用、扭曲的數字,外表可信,使人難以察覺破綻。
我們常以為:表達愈清晰、條理愈分明、資料愈細緻,便愈可信。AI生成恰好符合這種直覺期待,卻不保證其內容經過事實核查。當資訊由科技平台包裝呈現時,人們會因對系統的慣性信任,而誤信,即使明知內容可能帶有商業或政治考量。
當真假難分成為常態,公眾容易陷入情緒危機:
• 認知疲勞——索性放棄查證
• 過度懷疑——對人失去信任
• 憤世嫉俗——敵視權力操控
• 集體焦慮——長期不安惶恐
守護真實,也守護良知
生成AI不是洪水猛獸,它本身並沒有道德方向。它既能協助創作、醫療與教育,也能操縱情緒。真正考驗,是人類的集體心智成熟度。我們或許可以:
• 多方驗證資訊,不依賴單一貼文。
• 承認自己不足,警惕確認的偏誤。
• 無須急於表態,給自己沉澱時間。
• 與理性可信者,保持深度的討論。
• 願意海納百川,非重復固有立場。
• 理解人工智能生成與偽造的原理。
• 為自己每次轉發與評論承擔負責。
在AI時代,真正稀缺的,不再是資訊,而是判斷力。當資訊過剩,求證與節制,便成為公民修養。在紛亂中,守住對真實的尊重與堅持。自律自重,是為公共世界守住良知,也守護最後一道邊界。當技術愈來愈強大,人類真正的力量,在於清醒。真正能抵禦虛假的,不是更強的演算法,而是更成熟的集體心智。
作者周華山博士是慈善機構「自在社」創辦人,曾在香港理工大學和香港大學教授社會學與心理分析,著書35本。
文章僅屬作者意見,不代表香港01立場。
01論壇歡迎投稿。請電郵至01view@hk01.com,附上作者真實姓名、自我簡介及聯絡方法。若不適用,恕不另行通知。香港01保留最終編輯權。