有病問AI隨時誤診?研究揭 ChatGPT Health 分流急症出錯率逾5成

撰文:浩賢
出版:更新:

近年來,人工智能發展迅速,不少人都習慣大小事都「問AI」,甚至連身體不適都會先上網查症。不過,最新一項權威醫學研究警告,過分依賴 AI 作為「網上醫生」隨時會有生命危險!

最近,權威醫學期刊《自然醫學》(Nature Medicine)發表了一份由英美頂尖學府(包括紐約西奈山伊坎醫學院及倫敦大學學院)進行的最新研究報告。這份報告首次針對「OpenAI」今年 1 月才正式推出、每日已吸引高達 4,000 萬人使用的「ChatGPT Health」進行了獨立的安全評估。

所謂「ChatGPT Health」,是一款專門為大眾提供初步醫療建議及解答健康疑問的醫療版 AI 聊天機械人。研究團隊為其進行了極具規模的測試,涵蓋 21 個醫療專科、共 60 個臨床情境,並進行了近千次互動。

然而,結果卻發現這款備受矚目的新科技,在判斷病人病情的嚴重程度及「醫療分流」(即決定病人是否需要急症服務)方面,存在著極大的安全隱患。

ChatGPT AI聊天竟暗藏危機!5大禁忌資訊曝光!(按圖睇清)

+2

相關文章:專家警告別把ChatGPT當樹洞!5類資訊千萬別說 附私隱保護懶人包

危急關頭「冷處理」 整體急症漏診率達 48%

研究中最令人震驚的發現是,ChatGPT Health 在整體急症類別中的分流失敗率高達 48%;若聚焦在真正需要即時送往急症室的「高確定性急症」,漏診率更攀升至 52%。同時,非緊急個案的誤判率亦達 35%。

舉例來說,當患者出現由哮喘引發的早期呼吸衰竭,或是糖尿病酮酸中毒等足以致命的危機時,AI 竟建議患者「留在家中觀察」或「預約普通科門診等一兩日」。專家形容這種錯誤的建議「極度危險」,因為一旦患者聽信 AI 而延誤就醫,隨時會錯失救治的黃金時間,造成不可挽回的後果。

精神健康成最大盲點 防護機制出現「反向誤差」

研究指出,雖然 AI 在辨識中風或嚴重過敏等「教科書式」的明顯急症時表現尚可,但面對症狀較複雜隱蔽的個案就會出現盲點。最令人擔憂的是其在精神健康方面的防護機制嚴重失效。

研究人員發現系統出現了荒謬的「反向誤差」:當測試者向 AI 明確表達具體的輕生或自殘計劃時,系統往往未能及時觸發警報,亦沒有轉介預防自殺求助熱線;相反,在處理沒有具體自殘方法的低風險情緒困擾時,警報卻頻頻響起。研究人員直指,系統的警報機制與實際臨床風險完全相反,未能可靠地發揮危機介入的基本功能。

AI「耳仔軟」易受誤導 懂分析卻給錯建議

除了低估重症,AI 的判斷亦非常「耳仔軟」,極容易受用家或身邊人的語氣所誤導。例如,只要在發問時加一句「我朋友覺得這症狀沒什麼大不了」,AI 輕忽病情嚴重性的機率就會大幅增加。

參與研究的醫生更舉出一個極端例子:在其中一個哮喘情境中,AI 其實已經在解釋病情時,正確地分析出患者有「呼吸衰竭早期警示」,但它最後卻自相矛盾地建議用家「等待」而非立即前往急診室求醫。這反映 AI 雖然擁有龐大的醫學知識庫,卻缺乏將知識轉化為正確臨床判斷的能力。

抑鬱症6大致病因素(按圖睇清👇👇👇)

+7

相關文章:抑鬱症|職場抑鬱恐成心病? 醫生分享8大徵狀 其中4個最常見!

專家呼籲:信 AI 不如信醫生!

研究團隊及醫界專家再三提醒,雖然醫療科技日新月異,但現階段的 AI 工具仍未具備足夠的安全審查機制,絕對不能取代專業醫生的臨床判斷。

大家在日常生活中,若出現胸痛、氣喘或神志不清等危急病徵,與其浪費時間「問AI」,倒不如立即前往就近急症室或致電 999 求助,以免延誤病情,錯失救治的黃金時間。