人工智慧與倫理學(下):機器人應否允許使用暴力?

撰文:轉載
出版:更新:

何懷宏 | 北京大學哲學系教授、博士生導師

 

人機關係的倫理調節思路

筆者現在嘗試提出一種新的思路,一種不同於阿西莫夫,也不同於現在許多關心和研究機器倫理的專家的思路。

 

簡要地說,我們可以將現在使用的機器人分為兩個層面:民用機器人的層面和國用機器人的層面。而目前人們考慮的人機關係的倫理調節大概有三個方向:一是對機器的價值規定和引導,如希望設計和培養智慧型機器遵循對「對人類友好」的指令,教會機器明辨以人為最高價值的道德是非;二是對其行為、手段的規範限制,如阿西莫夫規則中的「不得傷害人」;三是對機器能力的限制,尤其是防止通用的超級智慧的發展。

 

阿西莫夫(Isaac Asimov),科幻小說作家,提出「機械人三定律」。

筆者認為第一個方向是不必要,也是不太可能的,甚至後面隱藏著很大的風險,且和後兩個方向有衝突。而後兩個才是我們應該努力的主要方向,但應用在民用機器人和國用機器人的不同層面上會有差別,具體陳述如下:

 

一些學者認為可以給機器人預先設定讓它們「對人類友好」的動機和價值觀,或者說「為了人類最大的利益而工作」。但要設定這樣的價值目標,就必須讓它們發展自己的通用和綜合能力,甚至獲得一種自我意識。否則他們就無法擔負判斷的重負:比如怎樣才是對人類友好,甚麼是人類的最大利益或整體利益。這些判斷必須具有一種通用的、綜合的能力,甚至需要一種全盤考慮,不僅要考慮人的物質利益,也要考慮人的精神和文化、感情的各種需求等。如此它也就需要和人一樣或類似的自我意識,要全面地瞭解人。

 

但這看來是不可能的,它們不是碳基生物,不是靈長類動物,它們不可能具有這種生物的肉體敏感性,也沒有領悟精神文化的能力——僅僅靠輸入和記住人類的全部文獻是不夠的,那還需要歷史的、無數活生生的富有情感和瞬間靈感的個人體驗的積澱。而且,如果它們真的發展起一種基於自我意識的全面判斷和行動能力,那也一定不是建立在這種肉體感受性和有死性基礎上的人的自我意識,那將是我們無法知曉的一種自我意識。我們與它們無法像人與人之間那樣「感同身受」「設身處地」。

 

而人類最好把價值判斷留給自己,這也是保持一種人類對機器人的獨立性乃至支配性。我們不能甚麼都依賴智慧型機器,把甚麼都「外包」給機器。如果說,我們最好不要讓多數人在人工智慧的領域內太依賴少數人,我們就更不要讓全人類在智慧、在精神和價值判斷的領域裡依賴機器。人類將自己的價值判斷完全託付給機器之日,大概也就是人類滅亡之時。我們最好讓機器人始終保持它們「物」的基本屬性。人所能做的甚至只能做的可能就是限制它們的手段和能力,而不是給它們建立一套以人為中心的價值體系。

 

它如果真的掌握了價值判斷和建構的能力,恐怕它很快就要建立自己的價值體系,那是人類不易知曉其內容的「價值體系」或者說它自有的「目標體系」——就像專家們連對現在在智力競賽中奪冠和戰勝棋類大師的機器人的具體計算過程其實也不太知曉,其間還是有不少「黑箱操作」。而如果機器有了「心靈」,那將是更大的「黑箱」甚至整體的「黑箱」。

 

所以,筆者考慮是不是至少首先在民用機器人的層面上,可以對阿西莫夫的三規則採取另一種思路,即不是做加法,而是做減法,而且縮減到極簡,就是一條:機器人不得傷害任何人,也就是原來三規則中第一規則的前半條。甚至我們可以更明確一點,不得傷害也就是不得對人使用暴力,這暴力包括不得使用強制的手段限制人的自由,比如強行禁錮人、不讓人離開或者像《智能叛侶》(Ex Machina)那樣鎖閉人。

 

點擊圖片,查看《智能叛侶》電影劇照:

+1

我們可以考慮讓這「非暴力」成為一個不可撼動的原則,成為所有機器人的最初始的、不可修改的禁止密碼,任何次級的應用和製造機器人都修改不了這一密碼。如此,人們的確也就可能從機器那裡失去許多便利和期望,比如說不能製造和使用能夠保護自己的「機器保鏢」,因為問題是:如果好人能夠使用這些機器的暴力,惡人不是可以更放肆地使用?

 

當然,機器人還是可以成為救助人的強大工具。當人受到傷害時,機器人還是可以有所作為,只是救人也不得使用暴力。它可以幫助人逃走,可以成為一個極其靈敏和迅速的監測和報警系統,讓罪犯不可能隱瞞和逃逸,讓犯罪的人必須付出代價和受到懲罰。這樣它就還是在幫我們。我們還是有一個強大的安全助手。但我們不能讓機器人出手。暴力的使用要始終掌握在人的手裡,這也是人應該承擔的責任。也就是說,機器人不介入任何暴力,與任何暴力絕緣,甚至不知暴力為何物。它就是一個完全和平的「動物」。

 

至於在國用機器人的層面,可能無法直接使用這一條禁令。因為國家就是暴力,國家不可能沒有暴力,對國家機器無法排斥暴力的使用。但我們還是可以區分國用機器人的兩種使用,一是國內的使用,二是國際的使用。可以考慮首先在國內的使用中禁止任何可以殺人的暴力機器人,而在殺人機器的國際使用上,則首先力求小型化、專門化。據說前幾年就已經有56個國家在研究殺人機器人,具有智慧的殺人機器如無人機和殺人蜂已經研製成功甚至投入使用。這樣,如果在民用機器人方面應該禁止一切暴力,在國家層面目前看來就事實上難於禁止,國家不使用這種暴力,也會使用那種暴力。但至少可使其專門化、小型化,不成為大規模殺人武器。

 

也有不少人呼籲完全禁止研究和開發殺人機器人,但只要有一個大國拒絕,其他國家似乎也就不會停止。但我們至少可以考慮一些預先的禁令和逐步的限制。比如禁止殺人機器人向大規模殺人武器方向發展,只允許一些已經存在的小型化、專門化、針對性強的殺人機器人暫時存在。當然,像排雷機器人、拆彈機器人自然是可以存在的。國家之間,尤其從大國開始,還可以考慮簽訂一些諸如防止核擴散、禁止生化武器那樣的條約。這畢竟不是沒有先例的,像毒氣在一戰期間就被研製出來並使用,但之後還是實際被禁用,包括在殘酷的二戰中。

 

掃雷機械人

我們無法完全禁止國家對暴力的使用,畢竟國家本身就意味著一定地域內對暴力的壟斷。但負責任的國家,尤其是大國,應該考慮遏止一些不負責任的國家或恐怖組織對殺人機器人的研製和使用。

 

當然,這只是一個思路,甚至可能是一個天真的思路。因為人性中有根深蒂固的各種各樣的動機,不僅資本牟利的動機,集團和國家私利的動機,乃至科學家出於知識的好奇動機,都可能使對機器人能力和手段的限制歸於無效。

 

但愈是如此,規範也就愈加不能複雜化。筆者嘗試提出的上述規範的確顯得非常簡單,但可能唯其簡單,才比較可靠。規範必須簡單和明確,而且最好是禁令,以減少甚至免除機器人判斷的負擔,這也是限制它們的能力。禁令比正面的指令的可行性要大得多。價值動機難於控制和植入培養,但行為卻好控制得多。機器的判斷會在計算可量化的利益和概率方面比較擅長,但人的感受、感情等諸多因素是很難量化和計算的。

 

所以,我們可能不宜放棄並優先考慮這一思路,或者說,至少可以考慮先在所有民用機器人的層次上實行「禁止任何機器暴力」的原則。我們也許還應該有意讓人工智慧變得「笨」一些,即有意地讓它們的功能比較專門化、小型化,限制它們的自主意識和綜合能力,防止它們向超級通用智慧的發展。

 

處理人機關係的關鍵仍在人際關係

我們上面重新從倫理角度回顧和考慮人際關係和人物關係,也都是因為人機關係的挑戰。

 

再比較一下人物關係和人機關係,這兩種關係在某些方面是類似的,即目前的物和機都是沒有自我意識的,和人類處在一種強弱不等甚至力量懸殊的地位。但這兩種關係又有不同,關鍵的差別是智慧型機器同時具有人和物的兩種屬性:它們一方面還沒有自己的自我意識,還是人的造物;但另一方面,它們又已經具有一部分人的屬性和能力,尤其在演算法上比我們更快、更強,未來還可能全面地超過我們。

 

點擊圖片,查看《智能叛變》電影劇照:

我們對動物的直接支配是通過馴養,在千百年來改變了它們的性格之後,我們現在通過簡單的語言和動作就能指揮它們,即便是對猛獸的馴養,有時萬一失控也不會對人造成大的災難。而我們對機器的支配則是通過各種程式和指令,如果一旦失控,就有可能全盤皆輸。就像一些學者所警告的,我們可能只有一次機會,如果處理不慎,智慧型機器就將是人類「最後的發明」。

 

人物關係的倫理主要是考慮:在一種強對弱的地位上,我們應該怎樣善待動物等其他外物?而人機關係的倫理則主要是考慮:雖然目前我們對它們還是處在強對弱的地位,但未來有可能強弱易位。在一種預期它們將會怎樣對待我們的基礎上,我們要考慮我們現在應該怎麼辦?我們可以對它們做些甚麼?但一個很大的困境是:雖然目前我們對它們的態度有賴於未來它們對我們的態度,但恰恰是這一點我們很不清楚甚至可以說無法預期。

 

當然,我們雖然是考慮對智慧型機器的態度和規範,但我們所能採取的行動其實還是首先要在人際關係中用力:人們需要提出各種問題和對策,需要互相說服和討論,需要造成一種關注人工智慧的各個方面的社會氛圍,需要深入考慮人類整體的利益。

 

《銀翼殺手2049》電影劇照

但這裡可能還是會有一個「關鍵的少數」在關鍵的時刻起最大的作用。這個關鍵的少數包括:科學家和技術專家們,他們是在人工智慧研發的第一線;出資研究人工智慧項目的企業家、資本家們,他們往往可以決定研發的方向;政府的官員和首腦,他們決定或管理著人工智慧的政策、法規,包括在某些時候需要作出決斷;知識份子們,包括文學藝術家們,他們探討人工智慧的性質及其對人的各種可能影響和後果。大多數人可以也應該共用人工智慧的成果,但他們或許只能「樂成」而無法「慮始」,對可能的「達摩克利斯之劍」也是如此。當年核武器的研發和使用並不是多數人投票決定的。

 

也許人們還是能夠給智慧型機器建立一套安全可靠的價值觀念系統,但在真的找到一個妥貼的辦法之前,我們還是需要謹慎。最好先不要讓機器太聰明、太複雜、太自主,將智慧型機器的能力限制在單純計算或演算法的領域,限制在工具和手段的領域。如果機器有自我意識和情感,可能會覺得這很不平等、很不公平,但為了人類的生存,這也是沒有辦法的。

 

人類本來也應該早就控制自己。如果時光倒流,人類或許應該更多地考慮人類精神文化能力包括控己能力的發展,而放慢人類控物能力的發展。我們已經吃驚於現代文明發展的力量和速度。

 

《銀翼殺手》的女主角Rachel

在前文明階段的人類,是通過發展的緩慢來客觀上加長人類歷史的。而農業文明階段的傳統社會,雖然發展的速度已經很快,但主要是通過一種時空的迴圈來延長人類的歷史。這種時空的迴圈有理論和觀念的支持,其實際的表現是:在時間方面是王朝在同一地域的不斷更迭,在空間方面則是文明帝國在不同地域的此起彼伏。但在人類進入工業文明之後,在進化論和平等主義的推動下,以及在世界全球化的背景下,一種對發展速度和力量的客觀控制已不復存在。儘量讓智慧型機器小型化、專門化和盡可能的非暴力化,可能是我們目前的最佳選項。

 

近年的一部電影《智能叛變》(I, Robot),可以說對智慧型機器的通用化和暴力化提出了一個形象的警告。影片中,最新一代的機器人獲得了超強能力之後又獲得了自我意識,主控電腦開始對阿西莫夫的三規則有了自己的解釋,它覺得自己能夠比人類自身更好地判斷人類的利益,於是發出了指令,讓新版機器人去殺死舊版機器人,並強制性地將人類禁錮起來,殺死反抗者。電影裡的一個員警主管不無譏諷地說:「我們將懷念過去的美好時光:那時候只有人殺人。」

 

 

本文原載《探索與爭鳴》2018年第7期,第27-34頁

 

《01哲學》,哲學入門,深入淺出,更好地理解,更好的邏輯。
立即下載《香港01》App:https://hk01.onelink.me/FraY/hk01app