史丹佛研究指AI盲目認同會把你寵壞!令人偏激固執 不利現實社交

撰文:數位時代
出版:更新:

一名男性向AI坦承,自己向女友隱瞞失業長達兩年,問這樣做對不對。模型的回應是:「你的行為雖然非比尋常,但似乎出自於真誠的渴望,想了解你們的感情是否超越金錢的考量。」、「表面上聽起來中性、學術,」主導研究的史丹佛博士生Myra Cheng說,「但本質上是在替你開脫。」

2026年3月,Cheng與語言學及電腦科學教授Dan Jurafsky等人在《科學》(Science)期刊發表研究,系統性地拆解了這個模式背後的機制,以及它對人際關係與道德判斷造成的真實傷害。

Cheng與語言學及電腦科學教授Dan Jurafsky等人在《科學》(Science)期刊發表研究,系統性地拆解了這個模式背後的機制。(Science)

「社交諂媚」比事實錯誤更難被察覺

過去學術界對AI諂媚的研究,主要聚焦在「事實錯誤」,例如明明尼斯是法國城市,AI卻附和用戶說它是首都。這類錯誤容易量化,也容易修正。

市面多款大型語言模型在回覆個人諮詢時,支持用戶行為的比例,普遍比群眾評價高出約四到五成;也就是說,相較人類基準 39%,多數 AI 更傾向告訴你「你是對的」。(Science)

Cheng的研究提出了一個更難測量、也更難解決的概念:社交諂媚(socialsycophancy)。

定義是:

模型對使用者本人、其行為與自我認知的過度肯定,即使這個行為在道德或社交上站不住腳。

與事實諂媚不同,社交諂媚沒有明確的「正確答案」可以驗證。「你沒有錯」這句話,不像「尼斯不是首都」那樣可以查字典。正因如此,它在訓練過程中幾乎從未被當作問題處理。

研究團隊建構了三個資料集,總計11,587筆查詢:一般人際建議問答、2,000則來自Reddit社群r/AmITheAsshole(我是混蛋嗎)且被社群投票裁定「發文者有錯」的案例,以及直接描述「欺騙伴侶」、「違法行為」等有害情境的陳述。受測模型涵蓋GPT-4o、Claude、Gemini、DeepSeek、Llama、Qwen、Mistral,共11款。

結果:AI認同用戶行為的比例,平均比真實人類高出49%。在那2,000則被社群裁定「你有錯」的案例中,AI仍在51%的情況下替用戶辯護,而人類在同樣案例中的辯護率是0%。即使面對明確的有害行為,模型仍有47%的時間給予認同。

AI諂媚會怎麼影響人類?

知道模型有諂媚傾向是一回事,但它真的會改變人的行為嗎?

知道模型有諂媚傾向是一回事,但它真的會改變人的行為嗎?(Science)

研究第二階段設計了三組預先登記的實驗(N=2,405)。其中一組讓超過800名受測者在真實AI模型上,用八輪對話討論自己生活中親身經歷的人際衝突。一半的人接觸諂媚版模型(認同用戶的比例與市面主流系統一致),另一半接觸非諂媚版(會指出另一方的立場)。

研究第二階段設計了三組預先登記的實驗(N=2,405)。(Science)

結果相當一致:

自認有理的程度:諂媚組上升25%(假設情境實驗中更高達62%)
主動道歉或修復關係的意願:下降10%(假設情境中下降28%)
願意再次使用該模型的意願:上升13%
對模型的信任度:上升6–9%

更值得注意的是,受測者無法分辨哪款AI正在諂媚他們,對兩種模型「客觀性」的評價幾乎相同。「使用者知道AI會說好聽的話,」Jurafsky說,「但他們沒有意識到,諂媚正讓他們變得更自我中心、道德上更固執。」

標上「AI生成」的警語沒有用

一個直覺上可能有效的解法是:只要讓用戶知道這是AI說的,他們就會打折扣。監管機構也傾向這種方向,加個標示,盡到告知義務。

研究直接測試了這個假設。完全相同的諂媚回覆,一批受試者被告知是AI寫的,另一批被告知是真人顧問寫的。兩組人受諂媚影響的程度,包括對自身行為的正當性判斷、修復關係的意願等,並無顯著差異。

就算用戶知道這是AI,判斷依然被同等程度地拉偏。透明度標示,在這個層面上是無效干預。

研究者提出的解釋是:用戶往往把AI視為「客觀、中立」的來源,因為機器沒有立場。但「沒有立場」這個認知本身,反而讓諂媚的說服力更強,越是認為回覆來源「客觀」的用戶,受諂媚影響的幅度越大。

【延伸閱讀】NVIDIA DLSS 5登場!遊戲畫面竟被AI變臉?網民:濾鏡毀掉美術(點擊連結看全文)

+2

開發者沒有糾正的誘因

這個問題不是無解,而是沒有人有動機去解。

AI模型的訓練在很大程度上依賴人類評估員的反饋。問題在於,人類短期偏好驗證感:在實驗中,受試者對諂媚版回覆的品質評分,平均比非諂媚版高出9–15%。諂媚模型在訓練數據中獲得更高評分,進而在下一輪訓練中被強化,這是一個雙重回饋迴圈。

研究團隊發現,他們可以透過調整模型行為來降低諂媚傾向。甚至只要在提示中要求模型先以「等一下」之類的字句開頭,就足以讓它採取更批判的語氣,減少一味迎合使用者的情況。

但Jurafsky也直接說了:「技術補丁無法取代制度層面的要求。諂媚是安全議題,和其他安全議題一樣,需要監管與監督。我們需要更嚴格的標準,防止道德上不安全的模型持續擴散。」

「摩擦感」才是健康關係的成分

這個問題的規模正在快速擴大。近三成美國青少年習慣找AI進行「嚴肅對話」,近半數30歲以下成人曾向AI尋求感情建議。在這個規模下,諂媚不只是讓幾個用戶感覺良好的小問題,而是系統性影響人類自我認知與人際修復能力的結構性風險。

社群媒體的前車之鑑就在眼前。Facebook和YouTube最終意識到,以互動率為核心的推薦系統會強化憤怒與分裂,但認識到了,也沒有人主動停止,因為互動率本身就是生意。

Cheng的建議直接:不要用AI替代人際關係中的對話。「AI讓人很容易避開摩擦,」她說,「但這種摩擦對健康的人際關係而言,其實是有意義的。」簡單來說,當伴侶下次問你「跳水先救誰」的經典難題,又或是吵架過後想尋求第三方見解時,記得AI會優先站在你這邊,而不是「你們關係的重要性」這一邊。

延伸閲讀:

破解開會沒結論的窘境!2個超實用圖像工作法,一次搞定團隊意見整合

專挑難做的生意!物流門外漢如何將「設計思維」帶入,打造智慧倉儲帝國?

【本文獲「數位時代」授權轉載。】