人工智能的最後一道封印
人工智能必然會於科學領域取代人類,帶來另一次工業革命。對此,我們應該坦然接受,並好好運用,甚至向人工智能學習。但於美學的領域中,便要視乎人類社會是否接受人工智能的參與及是否願意為其賦予價值,否則人工智能便無用武之地--這是人類社會對人工智能的最後一道封印。
以下是一個思想實驗:假如未來有一種可以移植到人體的「人工腦袋」,有病人腦幹死亡,醫生向家屬介紹人工腦袋移植手術。家屬的第一個問題必定是:是不是和原本的那個人一模一樣?醫生回答:「是」,然後建議兩種做法:
方法一:把死去腦袋的所有「資料」傳送到人工腦袋中;或
方法二:不用傳送「資料」,而只是把人工腦袋調較至同死去的腦袋一模一樣。
假設兩種方法可以得出相同的效果,價錢也相同。醫生問家屬想選擇哪一種?不難想像,家屬必定傾向接受方法一而不會考慮方法二。吊詭之處是既然兩者沒有差別,為什麼還會有這種差別?本文將揭示這個差別正是人工智能的最大局限。
方法二好比人工智能。也就是說,儘管人工智能可以完美無暇地重現死者生前所有思想、情感和習慣,家屬心底裡還是會覺得那個人不再是原本的那個親人。道理如同當你知道了一個人是騙子後,無論那人再表現得多麼真誠,你還是會覺得他很虛偽。諷刺地,這個「騙子」無法理解為什麼自己不被接受。
自古以來,人類已有藝術和科學兩大領域。這裡所指的「藝術」和「科學」並非狹義的學科,而是廣義的思維模式。人性不是完全藝術,也不完全科學,而是兩者交織而成的。有時感性多一點,有時理性多一點;有些人比較藝術一點,有些人比較科學一點。今天,我們都知道左腦和右腦的分別。簡單而言,左腦比較理性,右腦比較感性。日常生活很多事情都要求我們左、右腦兼用,因此人們很容易墮入一個認知誤區:所謂「理性」和「感性」是指那種活動本身而不是腦袋本身。舉例說,因為計算是理性的活動,所以我較多運用左腦;並非因為我計算時較多運用左腦,所以計算便一定是理性的活動。我舉兩個例子:
例子一:自古以來,中國人視圍棋為一門藝術,與琴、書、畫相提並論。AlphoGo面世之前,一些圍棋高手認為圍棋不可能被人工智能征服,言下之意就是圍棋是一門藝術。所以,當AlphaGo戰勝人類頂尖棋手後,有些人的內心不是味兒。這並非人工智能的錯,而是那些人的見解有問題。現在,我們不得不承認,圍棋的本質就是科學,那是一種可以被計算的東西。不過,人類的運算能力不足以全盤計算,才需要用直覺去彌補不足。但運用直覺去下棋不等於圍棋就是藝術,而那些人的不安感是由於AlphaGo巔覆了「圍棋是藝術」這種根深蒂固的見解。其實,只要是可以被數據化的東西,無論多麼複雜,都是人工智能可以征服的領域。
例子二:內地很喜歡談「科學」,尤其是政府機關--科學方法、科學發展,總之就是一大堆「科學」。但明白人都知道那些不全是科學,不少都是藝術。如果一個政府要推出政策、領導人要治理國家,好像求神問卜那樣請教人工智能指點迷津(假設未來有這一種人工智能),民眾會有什麼反應呢?當然,人工智能作為一種輔助工具沒有問題;但若交由人工智能做決策,恐怕便要引咎下台了。我們不禁要問:為什麼有「咎」?為什麼柯潔讚美AlphaGo為「圍棋上帝」,但人工智能用於一些範疇上反而變成魔鬼?這條界線正是美學和科學的分野。而隨著人工智能日漸成熟,這條界線將會前所未有地清晰。
所以,當AlphaGo戰勝人類頂尖棋手後,有些人的內心不是味兒。這並非人工智能的錯,而是那些人的見解有問題。現在,我們不得不承認,圍棋的本質就是科學,那是一種可以被計算的東西。(香港01圖片)
然而,一些當代哲學觀點似乎還未弄清楚上述的分野。篇幅所限,我只舉出兩個最典型的例子:耶魯大學「最愛歡迎」的哲學課教授卡根(Shelly Kagan)認為,人類和機器同樣是先分析環境然後作出反應。他舉例說,人工智能下棋並非預先把所有棋路設計周到,而只是分析、回應及預測對手的棋路,這如同當人類面對各種客觀環境變化時,便會作出相關的反應,包括情感上的轉變。他又以電影《2001太空漫遊》為例:故事講述一群太空人出發前往木星。由於事關重大,太空船裝備了人工智能來協助人類。電腦知道無論如何都不能出錯。可是,它也知道人類是會犯錯的。於是,它經過分析後,得出的結論就是要殺死太空船上的人類。男主角知道後,決定中斷它的電源。人工智能哀求男主角不要這樣做,因為它「感到恐懼」。卡根認為,人類的思想和情感不外如是。
希爾勒(John Searle)則認為,機器與人類的分別,在於人類有實質意義上的理解和明白,人工智能卻沒有。他以翻譯機器來比喻人工智能:即使一部翻譯機器能夠把一種語言翻譯成另一種語言,這並不表示翻譯機器本身真正懂得該兩種語言,如同AlphaGo不能領略下棋的樂趣(故稱為「弱人工智能」)。的確,現今的翻譯器不能取代人手翻譯,尤其是東、西方語言的互譯,翻譯機器往往譯得一塌糊塗。
現在,就讓卡根和希爾勒充當本文開首的死者家屬。醫生問二人:「你們想要方法一還是方法二?」卡根想了大半天也不明白兩種方法有什麼分別,甚至覺得醫生的問題很無聊。希爾勒會選擇方法一,但他的理由和一般人有點不同。希爾勒覺得兩種方法下運作的人工腦袋有著本質上的差別,即方法一有所謂「內涵」,方法二則沒有。如前所述,一般人之所以不能接受方法二,並非因為兩種方法有任何客觀上的差別。即使方法二也可以完美造出所謂「內涵」(即「強人工智能」),一般人還是莫名其妙地覺得「不是同一個人」。
一般人之所以不能接受方法二,並非因為兩種方法有任何客觀上的差別。即使方法二也可以完美造出所謂「內涵」(即「強人工智能」),一般人還是莫名其妙地覺得「不是同一個人」。(VCG圖片)
卡根和希爾勒的觀點不能解釋常人的想法。這本來沒有問題,問題在於他們嘗試用他們的觀點去解釋常人的想法,甚至認為常人應該抱持他們的觀點(尤其是卡根)。首先,希爾勒的觀點已然站不住腳。到底是翻譯機器本身未盡完善,還是翻譯工作不能依靠人工智能代勞呢?我們可以想像,未來或會出現一種超級文學機器,人工智能透過快速學習,吸收古今中外所有文學作品,然後找出最優美的字詞,組織最精警的句子,寫出比李白更優秀的詩。這並不科幻。儘管文學的變化比圍棋複雜何止千萬倍,畢竟受到文法的規限,而字詞、句式都是有限的,故理論上絕對可行。問題是,這種由超級文學機器寫出來的「優秀」文學作品能有多少價值呢?假如未來出現一部AlphaPaint,能深度學習所有的藝術作品,然後構思出比莫奈和梵谷更美妙的畫作,但誰會在乎呢?由此可見,人工智能從來不是「能否」的問題,而是即使它「全能」,在美學的範疇上無論如何都不能做出價值來。台灣漫畫家蔡志忠曾說,他仍然堅持人手繪畫的理由很簡單--手稿可以拍賣。Jordan Peterson說:
我不相信……商品……擁有內在的及自己本身的價值。當這種價值不存在之下,物品的價值必定取決於社會或文化(甚或至個人)。這種決定……是道德判斷上的--對我而言是一種被社會、文化或個人所接受的倫理哲學的結果。經濟學上而言,人們的價值觀只是反映了他們所認為是重要的東西。也就是說,真正的動機潛藏於價值的領域,即道德判斷。(Maps of Meaning: The Architecture of Belief, Preface)
既然卡根這些肉體理論家認為人和機器連情感也相同,為什麼兩者所創造出來的東西價值不同?卡根的謬誤源於他無視藝術和科學的分別。在他的網上視頻第十三講中,提到假設一個人的兩邊腦袋分別植入兩個不同的人體時,肉體理論家便必須生硬地構造一道no branching rule(即一個人不可分裂成兩個人)來斷定原本的那個人已經「死亡」。(見https://www.youtube.com/watch?v=OGA0Yo-SoPM&index=13&list=PLEA18FAF1AD9047B0)齊克果(Søren Kierkegaard)早於《非此則彼Either/Or》已解釋過這個問題:假如一個人把理性或直覺的其中一邊推向極致,去到喪失了另一邊的時候,他便喪失了成為一個完整的人的可能性。
AlphaGo第二度擊敗柯潔後,《紐約時報》這樣說:「科學家及未來學家指出,能冷漠無情地集中注意力,是人工智慧也許有朝一日取代大量白領工作的一個主要原因。然而,這種超然意味著AlphaGo不具某些工作所需的人情味,比如管理員工、為患者提供諮詢,或者以足夠優美的文筆寫出關於自己支配人類的長篇報告文學。」準確而言,人工智能必然會於科學領域取代人類,帶來另一次工業革命。對此,我們應該坦然接受,並好好運用,甚至向人工智能學習。但於美學的領域中,便要視乎人類社會是否接受人工智能的參與及是否願意為其賦予價值,否則人工智能便無用武之地--這是人類社會對人工智能的最後一道封印。但我認為於可見的將來這道封印都不易解開。反而,我們應該先弄清楚,哪些東西屬於科學、哪些東西屬於美學,從而以一個正確的態度去迎接人工智能的新時代。