為何AI總是「誠懇認錯,堅決不改」?揭秘AI幻覺產生的驚人真相!

撰文:中關村在線
出版:更新:

「很抱歉,我之前的回答有誤。」、「感謝您的指正,我會努力改進。」相信很多人在使用大語言模型時,偶爾發現一些很離譜的錯誤,糾正AI之後,就會獲得這種回應。然而,當你再次提問類似問題,它很可能換一種說法,繼續給出錯誤答案。

這種「誠懇認錯,堅決不改」的行為,讓不少用家哭笑不得。

眾所周知,AI沒有欺騙我們的動機,我們所看到的「謊言」有一個更準確的術語:幻覺(illusion)。那麼,AI幻覺究竟是怎麼產生的?為何即便開發者反覆優化,它依然難以徹底根除?今天我們就來通俗地聊聊這個話題。

1. 什麼是幻覺(illusion)?從何而來?

大語言模型的幻覺也分多種類型,一般來講,指的是語言模型在生成文本時,輸出看似合理、實則與事實不符、邏輯矛盾或完全虛構的內容。例如介紹產品時瞎填參數、編造一本從未出版的書籍及其作者、杜撰從未發布過的虛假新聞等等,這些內容往往語言流暢、結構嚴謹,但本質上是「一本正經地胡說八道」。

那麼,為何大語言模型會產生幻覺呢?

首先,來源數據並不全都正確。當前主流大語言模型通過海量網路文本、書籍內容進行自監督學習。但這些內容裏本身就有很多錯誤、偏見、重複訊息,甚至有人故意編造的假話。AI一模仿,就學會了「說謊」。另外,有些專業知識它根本沒學過,或者學的是過時的訊息,遇到新問題就只能「瞎猜」。有時模型無法判斷哪條訊息更權威,只能基於概率「猜」出最像人類會說的話,虛假數據就這麼產生了。

當前主流大語言模型通過海量網路文本、書籍內容進行自監督學習。但文本並非都基於事實,AI一模仿,就學會了「說謊」。(Getty Images)

其次,大語言模型傾向於預測下一個最可能出現的詞。為了生成連貫、自然的文本,它傾向於選擇高頻、語義平滑的組合,而非核查事實。例如,當被問「《三體》的作者是誰?」,模型知道「劉慈欣」是高概率答案;但若問題稍作變形:「《三體Ⅳ》的作者是誰?」,儘管該書並不存在,模型仍可能基於「《三體》+作者=劉慈欣」的強關聯,自信地編造出續作訊息。

此外,為了讓AI「更聽話」,開發者會用人工反饋來微調它。但如果要求它回答超出能力範圍的問題,它為了「表現好」反而更容易編造答案。

2. 為何現階段難以徹底避免?

儘管學術界和工業界已提出多種緩解幻覺的方法,但完全消除幻覺在當前技術框架下幾乎不可能。對於面向一般用家的大語言模型,它們的設計目標是通用對話,而非專業問答。要在任意話題上都保證100%準確,需為每個領域構建專用驗證系統,這違背了大模型便利的初衷。

如今幻覺形式多樣,有些錯誤顯而易見,有些則需專業知識才能識別。目前尚無統一、可擴展的自動評估標準。用家常默認AI無所不知,但模型本質是概率引擎。這種認知落差,使得即使低頻幻覺也會被放大為AI不可信。

3. 總結

雖說幻覺難免,但如果行業放縱其產生,AI總是挑最好聽的話來說,久而久之,人們就可能懶得自己動腦、分不清什麼是真什麼是假。更麻煩的是,這些為了討好用家而編出來的虛假內容,還可能被重新收集進AI的訓練數據裏,結果就是錯誤訊息越餵越多,AI說得越來越離譜,整個系統陷入惡性循環。

理解大模型幻覺,我們才能更理性地使用AI,它能充當工作、生活中的靈感助手,而非權威信源。未來幻覺或許能被大幅抑制,但對AI的回答保持一分懷疑,才是正確的使用方式。

【延伸閲讀】跟AI說謝謝會浪費算力?向4國產大模型詢問 實測結果都這樣說(點擊連結看全文)

+8

【本文獲「中關村在線」授權轉載。】