我們應該稱人工智能為「人」嗎?|藍江

撰文:轉載
出版:更新:

作者:藍江

按:人工智能與倫理挑戰

 

  當AlphaGo在擊敗了韓國頂尖棋手李世石以及讓中國圍棋第一人柯潔投子認輸之後,人們突然感覺到人工智能以一種特別的形象乍現在我們面前。然而人工智能的這種出場僅僅代表著人工智能領域的一個很小的部分,但恰恰是這個部分,讓不少人感到憂心忡忡,因為他們似乎感覺到在不遠的未來,現在的人類將會被人工智能所擁有的能力取而代之。獨屬於人類的世紀終將被後人類(即人類與人工智能並存,且人工智能擁有更強大權力)的黎明所替代,這樣,人們對人工智能的關注,不僅僅是其技術的發展,更重要的是,具有更強大智能和力量的人工智能,是否對人類具有善意,人與人工智能之間的關係是競爭、敵對,還是協作、共存?這就是人工智能為我們帶來的倫理問題和倫理挑戰。

 

2017年3月,歐洲議會法律事務委員會曾發佈了一個關於機器人和人工智能的報告,在這個報告中,提出了一個令人震驚,但又看起來在情理之中的觀點,即報告認為應該發展出一種適用於機器人和超級人工智能的「電子人格」(electronic personhood)模式,從而可以保障未來或許會出現的類人機器人(near-human robots)以及人工智能的權益和責任。換言之,「電子人格」的賦予,代表著商談倫理學的一個特殊的拓展,也就是說,進入到民主協商和商談倫理的諸方,不一定限於具有具體人格的人類,也允許一些具有平等地位的「電子人格」的主體與人類對話和協商,它們作為一種「人格」亦承擔著現代自由主義民主制下的平等主體的身份。或許以人工智能和機器人為背景的科幻小說和科幻電影在其中起到了推波助瀾的作用。

如2016年在HBO熱映的電視劇集《西部世界》(Westworld)就描述了這樣一個人類與智能型機器人共處的空間——由機器人扮演各種西部世界角色的遊樂園,當然,在這個遊樂園的空間中,由於起初由人類掌控(包括資本的掌控和技術的掌控),其目的也是為人類遊客服務,從而在規則的制定以及故事情節和程式的設定上,都是以人類為絕對優先的,機器人服務員被置於絕對僕從地位。一位在人類社會非常循規蹈矩的紳士,在遊樂園裡展現出無比暴虐的本性,他恣意殘害虐殺樂園裡的類人機器人;而那些平常規規矩矩,被現代社會所規訓的現代個體,由於樂園規則對機器人行為的限制(對現實的遊客唯一的限制就是不能去虐殺或傷害他們的同類,對於機器人則不在此列),使得他們可以隨意在其間釋放獸欲和殘暴的本性。遊樂園的管理方隨時監控著所有機器人服務員的行為表現是否合乎正常的程式,即便機器人接待員遭到了來自於現實中的人類最慘無人道的對待,那些工作人員也只是十分冷漠地將機器人的殘肢斷體拾回,運送到實驗室裡重新組裝,再一次投入到運營中。然而,這一切因為智能型機器人的「冥思」(meditation)程式而發生了變化。

 

有趣的是,這個詞雖然在電視劇裡被翻譯為「冥思」,但實際上這個詞也正是啟蒙哲學家笛卡爾在《第一哲學沉思錄》中所使用的人類意識到自我存在的沉思,meditation在笛卡爾那裡意味著啟蒙,而《西部世界》主創者在使用這個詞的時候,認為樂園總監羅伯特·福特在使用這個程式的時候,也意味著人工智能的啟蒙,意味著一旦冥思,智能型機器人便會具有與人類同等的自我意識,從而從實際上具有與自然人格同等地位的人格:冥思即啟蒙。這樣,樂園中以自然人類為中心的規則,在第一季結束的時候,遭到了來自於啟蒙覺醒的智能型機器人的挑戰,他們的冥思式啟蒙,使其不再接受與人類的不平等關係。我們可以預測到,在第一季中自然人格與相對於智能型機器人的絕對支配的優勢地位,會在之後的劇情中被顛覆,這種「冥思」意味著電視劇的創作者在藝術上已經賦予智能型機器人與自然人類的平等交往地位。而後面的劇情或許是,在反抗的機器人和人類管理員之間的多次較量,甚至血腥屠戮之後,機器人作為一種對等的人格會與人類平等對話,而西部世界這個樂園,會成為一個後人類的共同體,一個新的利維坦就此誕生。

這樣,哈貝馬斯意義上的主體間的交往理性,在現代人工智能背景下,已經被拓展為一種「超人」或「後人」與人類之間,或諸多人工智能「電子人格」之間的交往理性。在這種背景下,我們似乎無法再恪守一種純粹以人類為中心的倫理學,「走出人類紀」,建立一種「後人類」主體的倫理學便是勢在必行的事情,那麼,我們如何從哲學或倫理學上來審視這個問題?

 

一種最為簡單的做法是,將人類與人工智能形成的「電子人格」作一個類比的轉換,即人類與人工智能的關係類似於人與動物的關係。實際上,在今天的社會中,有不少呼聲認為動物(尤其是貓和狗之類的寵物),可能擁有著與人類一樣的人格,這些動物不僅與人類生活在一起,而且也承擔著人類社會的社會責任,最明顯的例子是導盲犬、緝毒犬、防爆犬之類的動物,它們承擔著人類所不能完成的任務,並成為人類社會不可或缺的部分。一些動物倫理學家,提出了人道地對待動物,使動物擁有與人一樣的地位的問題。同樣,類人機器人或人工智能一旦被賦予平等的「電子人格」,就像在科幻電影中一樣,它們承擔著一定的社會責任,並需要得到人道的對待。然而,正如伊萬·達舍夫斯基(Evan Dashevsky)所說:「人類與技術物件的關係以及我們的選擇最終都是對我們自己的反射……這就像康德的哲學主張,康德所主張的動物權利是關於我們的權利,而不是關於動物的權利。康德對動物權利根本沒有說過任何東西。他只是說,如果我們對動物很殘忍,那麼我們也會對人很殘忍。我想這種應用設定具有生命性質,我們像對待活的生物一樣的機器人身上也是如此。」那麼,按照達舍夫斯基的觀點,無論我們審視動物的權利,還是審視人工智能和機器人的人格,仍然是一種人類中心的視角,一種基於對人自身的反射式關懷。

 

人工智能的形式,我們當然不能只從動物的角度做簡單的類比。更多從事信息技術和人工智能開發的工程師,拒絕從這個角度來思考問題。實際上,對於人工智能,人們往往只對那些帶有類人的實體外形的機器人或者某種物件化的人工智能賦予人格,而對於專業工程師而言,這個領域或許要廣泛得多。當我們將「電子人格」賦予類人機器人和人工智能時,我們是否也要將同樣的人格賦予我們的智能手機、汽車的自動駕駛系統,甚至我們大門上的智能鎖?達舍夫斯基問道:「當我們刪除自己智能手機上的資料和照片時,你是否感覺到手機的情感反應?」而我們從不認為我們刪除智能手機上的資訊,是在侵犯一個與我們具有同等地位的「電子人格」的權利。

 

我們抵達了當代義大利哲學家阿甘本命名的門檻(soglia)地帶。正如人工智能工程師和科學家們為我們展現的那樣,人與機器的區分,在今天似乎變得沒有那麼的清晰明朗。即一旦我們放開人工智能的「電子人格」的權利,意味著人與機器的邊界變成了一個難分彼此的門檻。儘管我們並不一定回到拉·梅特利的《人是機器》中那種純機械論式的論斷,這就是阿甘本所謂的裝置(dispositivo),並不是我們在使用機器人和人工智能,而是我們與人工智能的裝置進入到一個晦暗不明的門檻(人與機器或裝置的門檻)地帶,「一些帶有好意的關於技術話語的空洞在於,裝置的問題不過是對裝置的使用問題。持這種觀點的人忽略了:如果存在著與所有裝置相對應的主體化(或去主體化)過程,那麼就不可能有主體使用裝置的『正確的方式』。而那些宣揚類似觀點的人,不過使他們深陷於其中的媒體裝置的產品罷了」。

 

(本文原文刊登於《社會科學戰線》2018年第一期,轉載自微信公眾號激進陣線聯萌)