【科技.未來】不問「為什麼」 AI可有真正智能?

撰文:孔祥威
出版:更新:

本月初,Google再次發表人工智能(AI)應用醫療研究成果,顯示AI診斷乳癌的準確率能匹敵人類醫生。過去幾年,幾乎每數個月就有一宗類似的消息,包括在糖尿病視網膜病變、腎病、肺癌、腦瘤等診斷上。當這些成果愈來愈多,人們難免期待:AI可否在診症之餘知道疾病的成因?現時單憑數據深度學習的AI,其智能能否進一步發揮?

承接上文︰【科技.未來】AI診症匹敵人類醫生 可否知疾病成因?

問「為什麼」的AI

2018年圖靈獎得主Yoshua Bengio認為,即使深度學習在理想化的情況中表現不錯,但若無法超越規律辨識,進而學習因果,AI將遠遠無法接近人類智能,也無法發揮它最大的潛力,也不會出現真正的AI革命:「整合因果到AI是一件大事。現時機器學習的進路都假設,經訓練的AI系統會被應用到與訓練數據同類的數據,但現實生活中卻不是這樣。用來推理的那些高階概念都傾向是一些因果變項,你不會以像素(pixel)來推理,你會以門、門把、開、關來推理。因果對於機器學習下一步的進展十分重要。」換言之,深度學習需要開始問「為什麼」。

Bengio指出,現時AI只能從數據中找出規律,但欠缺推理能力。(Ecole polytechnique)

部份學者也同意上述觀點。紐約大學心理學榮休教授Gary Marcus 2018年在《紐約時報》撰文反駁AI能解決假新聞的論調,當中就提到:「因果關係正是當代機器學習技術開始跌撞之處。」他對《經濟學人》解釋:「現有的系統太過表面。前沿的機制(例如深度學習)從龐大數據組中辨別出一個又一個關聯,但只是一個很淺的層次。一個機器學習系統或許能夠從滿布皺紋的皮膚學識辨認出大象,但它不知道象鼻的意義……若你不理解一隻動物或象鼻是什麼,你便無法推斷一頭大象會做什麼。對一張圖片的分類,與推斷一頭被放生在時代廣場的憤怒大象會做什麼,並不是同一回事。人類思維中有種通用性,不能單靠關聯就能補足。」

憑藉因果研究而獲頒2011年圖靈獎的計算機科學家Judea Pearl,也在2018年出版的著作《The Book of Why: The New Science of Cause and Effect》指出,AI若缺乏某種因果推理能力,其能力將會從根本上受到限制。

Pearl提出因果的三個層級(見圖),可助我們知道某個AI模型能夠回答什麼程度的問題。絕大部份機器學習的方法都只在第一級「關聯」(association),例如「這症狀可告訴我有關疾病的什麼信息」?高一級的是干預(intervention),可估算某個行為的效果,例如「若我服食阿士匹靈會怎樣,我的頭痛會否痊癒」?最高境界是反事實(counterfactuals),需要運用回溯性,即對於假設情況的推理,讓我們估算未觀察到的結果,例如「是否那粒阿士匹靈治好了我的頭痛」?

按Judea Pearl的三個因果層級,現時的AI只有第一級「關聯」的能力。(香港01製圖)

Marcus去年再在《紐約時報》呼籲:「我們需要停止建立那些通常使用深度學習、單純擅長偵測數據組中統計規律的電腦系統,而應開始建立一些從一開始就能捉緊時間、空間和因果這三種概念的電腦系統。」

Bengio也想改變AI這種現況。他的實驗室正研究一種深度學習,可以辨識簡單的因果關係。他們利用一個數據組,展示了一些真實現象因果關係的機會率,例如吸煙和肺癌。演算法基本上會產生一個假設,比如哪些變項在因果上相關,然後測試如何改變不同變項才合乎假設的理論。最終它應該有能力辨認出,即使癌症與其他因素有所關連,例如到醫院就診的次數,但吸煙不但與癌症相關,還會導致癌症。

Marcus樂見Bengio對因果推理的研究興趣,認為這代表學界出現某種思潮轉變:「太多深度學習都專注於『關聯』而忽略『因果』,這經常會令深度學習系統在有別於它們受訓練的環境中測試時容易迷失。」事實上,人類的經驗已提供了寶貴的一課:「當小孩子問『為什麼』,他們在問因果關係。若機器開始問為什麼,它們將會聰明得多。」

就如人類不需要身歷意外才從中學懂安全駕駛,Bengio認為真正智能的AI亦然。圖為隸屬通用汽車的Cruise最新發表、無軚盤、無腳踏的自動駕駛汽車Origin。(路透社)

「不可信」的AI

搞清因果關係會令現有的AI系統更聰明和有效。若果機器能夠理解物件墮下會破爛,就不需要擲下一堆花樽到地上來告訴它會發生什麼。Bengio說自動駕駛汽車開發亦如是,「人類不需要經歷大量交通意外才會小心駕駛」,他們只需要想像意外,「在心理上準備好意外萬一發生。」

同一能力對未來醫療也有類似好處。哈佛大學陳曾熙公共衞生學院兼任助理教授Sema Sgaier及生物統計學、人口健康與數據科學講座教授Francesca Dominici在去年11月出版的《哈佛商業評論》中說,可利用因果演算法找出癌症潛在成因來開發新藥,並找出適合接受這些藥物的病人:「在健康領域,了解因果關係的標準方法是隨機對照試驗(RCT),但昂貴又耗時,也不能完全代表不同類型病人……因果AI演算法可從觀察數據推斷因果關係,告訴我們不同因素如何互動……可以進行『如果……會怎樣』的模擬,例如,把治療劑量增至10倍,對疾病結果有什麼影響?」

一些專認為,懂因果的AI將可有助加快新藥開發和預測病情,製訂更適合病人的治療。(Getty Images)

約翰霍普金斯大學(JHU)計算機科學助理教授Suchi Saria正以一個反事實模型,從深切治療部洗腎病人數據中的肌酸酐(creatinine)濃度(會在腎衰竭時上升)建立模型,可因應不同病人情況,建議不同的洗腎方式和時段。

但是,因果推斷AI的研究才剛開始。對於現有那些表現最好、最複雜卻又無法解釋的AI,Marcus甚有保留:「我們不應該只因為現時的AI無法解釋其答案而懷疑它,更重要的是,它根本就不足以信任。」

Marcus認為即時現時表現最佳的AI也不值得信任,因為以它們所依賴的技術,根本無法稱得上真正智能。圖為AI面試系統HireVue。(HireVue官網)

Marcus認為,社會上之所以充斥對於AI未來的負面預測或想像,一大原因正是AI現時仍然流於辨識數據之間的規律,與真正的智能有很大的距離:「反烏托邦的預期之所以出現,很大程度是基於現時沒有思想的AI系統而推想出來。若能夠計算的只有統計關聯,就無法把傷害概念化。但能夠理解時間、空間和因果關係的AI系統,可被操控為依從更為整體的指令,例如『一個機器不可傷害人類,或透過不作為而讓人類受傷』(科幻小說家艾西莫夫 ─Issac Asimov提出的《機器三大定律》之首)的指令。」

在《Rebooting AI: Building Artificial Intelligence We Can Trust》一書中,Marcus幾乎把現時深度學習的問題和局限歸納為信任問題。他向《麻省理工科技評論》解釋:「因為我認為這正是現況。我們正身處歷史中一個奇怪的時刻,我們對不值得信任的機器給予很多信任。我想現時的憂慮並非永久的,或者不需要一百年後,AI將能夠值得我們信任。但現時AI很危險,不過不是馬斯克(Elon Musk)所擔心的那樣(他預期AI能力會超越人類,人腦接駁AI是人類能趕上的不二法門),而是諸如AI工作面試系統對女性的歧視之類。這無關編程人員的操作能力,只是因為他們所用的技術本身太過簡單。」

相關文章︰

從數據尋找最佳配方 AI可滿足人類味蕾?

AI研發新口味 人類廚師將被取代?

當AI能預防受傷 分析比賽 將如何改變運動產業?

AI任球探裁判評述 成也數據敗也數據?

阻止不當內容與自殺 AI協助社交媒體「消毒」

社交網絡以AI「消毒」 但AI可判斷「不當」內容?

新藥研發低迷 AI可如何顛覆生態

AI用數據研製新藥 反而是它的最大局限?

未來製藥專家 將由AI取代人類?

上文節錄自第198期《香港01》周報(2020年1月20日)《診症媲美醫生 但AI可知疾病成因?》

更多周報文章︰【01周報專頁】

《香港01》周報,各大書報攤及便利店有售。你亦可按此訂閱周報,閱讀更多深度報道。