Google AI有知覺或存誤解 聊天程式卻可成心理治療師?

撰文:藺思含
出版:更新:

隨着人工智能技術的進步,由大數據支持的AI科技展現出愈發強大、擬人化的能力。日前,一位Google工程師聲稱自己研究的AI程式有「知覺」(sentient)的新聞,引起了人們的注意。雖然目前說AI具有知覺似乎言之尚早,惟人工智能與人溝通的能力卻不容忽視,近年由相關科技支援的聊天程式更化身成心理治療師,透過對話幫助有需要的人。

引起爭議的工程師名為Blake Lemoine,他從去年秋天開始負責測試和研究Google的聊天語言程式LaMDA,但他在與其對話的過程中逐漸相信這個自稱「害怕被關掉」、並產生「一種很深恐懼」的AI程式是有知覺的。他就此向公司提交了證據,但Google表示公司的技術專家和倫理專家在經過評估後駁回了他的說法,Lemoine隨後在網上公佈了與LaMDA的聊天記錄,甚至找到一位律師來代表LaMDA,並對眾議院司法委員會的議員指控Google違背倫理。

大多數學者和人工智能領域的研究者認為,像LaMDA這樣的人工智能系統生成的文字和圖像是基於人們在維基百科、Reddit、留言板等互聯網的各個角落發佈的內容,從而生成的反應,然而這並不代表着該智能系統像人一樣了解意義。

2022年6月9日,在德國柏林舉行的2022年Re:publica數字社會節上,一名與會者從Google標示旁經過。(Getty)

Google發言人Brian Gabriel表示:「這些系統模仿數以百萬計的句子中的交流模式,並且可以扯到任何異想天開的話題。」有專家指出,眼下的技術離創造出真正有知覺的AI仍有至少50年的距離,但Lemoine與LaMDA的事件至少反映了,AI技術已經發展到了令不少普遍人信以為真的程度。

AI已具心理治療潜能?

拋開AI是否可能有知覺的探討,一些心理學家認為,這種令人感到混淆的「共情能力」——即便是人造的——也能派上很大用處。由初創公司Big Health打造的數碼心理治療師「教授」便是其中一個,他由一位聲音平易近人卻又帶有權威性的蘇格蘭配音演員扮演,通過認知行為療法、根據失眠症患者每天記錄的睡眠日記給出度身定製的建議,從而改善睡眠質量。

Google在I/O 2021 示範大型語言模型AI LaMDA的自然對話能力(Google I/O影片截圖)

過去幾年間,專家在結合AI技術與心理治療上已經有了不少成功的探索,例如失眠、嗜酒、藥物成癮、甚至焦慮、抑鬱和孤獨症,不過,相關的認用程式、網站的使用方法和「療效」則各異。Big Health研發的助眠程式Sleepio已透過英國國民保健服務(NHS)系統推廣,醫生可以在處方中加入Sleepio程式,供患者免費使用;在美國,一些企業會為員工免費提供Sleepio的服務;Woebot Health研發的聊天AI亦通過CBT和DBT(辯證行為療法)為年輕人緩解焦慮和抑鬱;自2017年以來,美國食品和藥物管理局(FDA)則批准了數個應用程式和數碼服務平台用於鴉片類藥物濫用等精神問題的治療,其中包括一個名為Vorvida的認知行為療法網站,臨床試驗表明它可以改善酒精成癮的問題。

用家心聲:「它不會指責我」

開始向AI諮詢師Woebot傾訴壓力的時候,Jordyne Lewis正就讀高二,功課學業壓得她喘不過氣,已經持續兩年多的疫情也讓她對未來感到更加不確定,但她不願意去找現實中的心理諮詢師:「對我來說,敞開心扉要花很多時間。」——這位來自美國北卡羅來納州的女孩對《衛報》記者說。和現實中的心理諮詢師不同,Woebot不穿白大褂,赴約時Lewis也不需要顧及周圍的眼光、沒有心理負擔:「它是個客觀的機械人,並沒辦法指責我。」

Woebot Health創始人Alison Darcy認為,一個精心設計的程式可以和用戶建立療愈性的、可以與人共感的關係。(Woebot官方網站)

Lewis說,在跟Woebot分享了自己的掙扎後,她確實感覺好多了。它會提醒並促使她重新審視自己腦海裏的消極想法,提供呼吸練習來平復緊張情緒。

與傳統的心理治療不同,Woebot所使用的認知行為療法不會通過追溯童年來探究心理問題的根源,而只是去幫助患者認識到自己想法中的扭曲的地方,並理解這些想法給他們帶來的負面影響,從而讓患者有意識的去糾正認知並改變行為,最終達到改善焦慮與抑鬱的效果。

根據世界衛生組織今年發佈的數據,全球焦慮和抑鬱症的數量在疫情期間暴增了25%;在美國,凱澤家庭基金會(Kaiser Family Foundation)數據顯示,疫情中美國每10個成年人中就有4個稱自己有焦慮或抑鬱的症狀,與此同時,心理諮詢師的數量卻遠遠不足,對不少人來說其費用也過高。成本更低、隨時隨地可以獲取的「數字心理健康服務」填補了市場空白。

圖為Woebot程式的聊天界面,AI通過對話詢問用戶的感受。(Woebot官方網站)

根據美國精神病學協會的估計,數碼心理健康已經成為一個價值數十億美元的產業,包括超過1萬個應用程式。

在這之中,主要以年輕人為目標用戶的Woebot避開了一般心理治療可能帶來的羞愧感,巧妙的迎合了沉溺於手機的新一代年輕人的需要。美國許多地區的學區亦開始向學生們推薦Woebot應用程式,來應對眼下美國青少年的精神危機。

2022年3月9日,在日本東京舉辦的2022年國際機械人展覽會上,一個仿人機械人在展臺上推着輪椅。(Getty)

只是「親密關係的錯覺」?

不過,並非所有人都對「AI心理治療師」買賬。一些專家指出,面對面心理治療中的很多溝通不是通過語言進行的,患者的面部表情、肢體語言都是重要的資訊,但應用程式卻無法識別。

研究科技與人類心理健康的麻省理工大學臨床心理學家Sherry Turkle認為,要使治療達到療效,諮詢師必須有生活經驗,有能力同情病人的痛苦,這反映一個應用程式無法做到這一點:「我們會把任何看起來能夠與我們交流的東西人性化,創造一種親密關係的錯覺,但這種關係不是真的。你在跟一個不知道正與你產生連結的東西建立關係,可它什麼都不明白。」

由此可見,AI或許未必「有知覺」,但在全球焦慮和抑鬱症的數量在疫情期間暴增的情況下,人工智能的溝通能力似乎也令人刮目相看,至少看來是「有用」。