基辛格|啟蒙運動的終結

撰文:轉載
出版:更新:

作者|亨利·基辛格

翻譯|陳默涵

 

年前,一次研究跨大西洋問題的會議議程中納入了「人工智慧」的主題。這不在我的興趣範圍內,我差點就略過了那場討論。但演示一開始,我便被牢牢吸引住了。

 

演講者描述了一個電腦程式的工作原理,這個程式即將可以在圍棋比賽中挑戰國際冠軍。圍棋比國際象棋更複雜,而一台電腦竟可以掌握圍棋,我很驚訝。 在圍棋比賽中,每個棋手部署180或181個棋子(取決於他或她持方的顏色),雙方交替放置棋子到空板上。通過更好的戰略決策,更有效地控制己方領地,困住他(她)的對手的一方獲勝。

 

演講者強調,下圍棋的能力無法預先程式設計。他說,他的機器通過實踐,自學掌握了圍棋。電腦按照圍棋規則,和自己下了無數局棋,從錯誤中吸取教訓,改進它的演算法。 在這個過程中,它的技能遠超人類導師。 事實上,在演講結束後的幾個月裡,一個名為AlphaGo的程式將與世上最厲害的棋手對弈,取得完勝。

 

圖為AlphaGo對韓國職業九段棋士李世乭,於2016年3月8日到3月15日在南韓首爾舉行,最後AlphaGo以四勝一敗的賽果擊敗李世乭。為AlphaGo進一步打響名聲。

當我聽著演講者讚美這一技術進步時,作為歷史學家和偶爾的政治家的經歷使我停下來,開始思考。自學機器對歷史會產生什麼影響?它們通過只屬於自身的特定程式運作獲取知識,並將這些知識應用於實現可能沒有人類能夠理解的目的。這些機器會學會相互溝通嗎? 如何在層出不窮的選項中做出選擇? 人類面對人工智慧,是否有可能變得像印加人面對無法理解、令人望而生畏的西班牙文化一樣? 我們處於人類歷史新階段的邊緣嗎?

 

我意識到自己在這個領域缺乏技術能力,在科技界和人文科學研究方面的熟人的指點下,我組織了一些關於這個問題的非正式對談。這些討論使我更關注這一議題。

 

迄今為止,對當代歷史進程造成最大影響的技術進步是15世紀印刷機的發明。它使對經驗知識的追求取代了禮儀教義,啟蒙時代逐漸取代宗教時代。個人思想和科學知識取代信仰,成為人類意識的主要標準。資訊通過圖書館的擴張得到存儲和系統化。啟蒙時代是塑造當代世界的諸多思想和行動的來源。

 

但是現在,這個秩序在一個新的、更加廣泛的技術革命下顯得動盪不安。我們無法完全預測新技術的變革帶來的影響,它發展到頂點時,可能會帶來一個依賴於資料和演算法驅動的機器、不受倫理或道德規範約束的世界。

 

我們身處的互聯網時代已預示著一些問題,而人工智慧只會讓問題變得更突出。啟蒙運動試圖使傳統的真理讓位於解放後的人的分析理性。而互聯網的目的是通過積累和操縱不斷擴大的資料,獲取知識。人類的認知失去了個體特徵。個體變成了資料,而資料變成了統治者。

 

互聯網使用者強調檢索和操縱資訊,不注重在情境中、概念上理解資訊的涵義。 他們很少探討歷史或哲學意義;通常,他們只想要獲取與即時的實際需求相關的資訊。 在這個過程中,搜尋引擎演算法可以預測客戶個人偏好,使演算法能夠提供個性化的結果,使其可被協力廠商出於政治或商業目的加以利用。真相變成相對概念。資訊可能足以擊敗一切智慧。

 

亨利.基辛格(Henry Kissinger),原美國國家安全顧問,於七十年代起,他倡導緩和政策,使美蘇之間緊張的關係得到緩解,並在1972年和中國國務院總理周恩來的會談中扮演了至關重要的角色,促成了中國的開放和新的戰略性的反蘇中美聯盟的形成。在2015年,季辛吉說「我反對美國對中國建立包圍網,也不贊成以中美關係為核心的外交政策。」

用戶置身於社交媒體中群眾意見的海洋,不再注重自我審視。事實上,許多技術樂觀主義者正是通過互聯網來躲避孤獨。所有這些壓力都削弱了人們的意志。堅毅的品格造就和維持信念,這只有走在孤獨的道路上時才能實現,而這是創造力的本質。

 

互聯網技術對政治的影響尤其突出。針對微型群體精准投放資訊的能力打破了先前就優先事項達成的共識,允許政治討論中對特定的目的或訴求予以關注。 政界領導被困在來自種種特定事項的壓力中,不再有時間思考或反思時代背景,壓縮了展望未來的空間。

 

數碼世界強調效率,會阻攔反思。為達到速度,激進變得比思慮周全重要。不是內省,而是小團體們的意見塑造了數碼世界的價值觀。雖然數碼世界成就斐然,但是它強行施加給社會的東西已經超過了它帶來的便利,具有自取滅亡的風險。

 

互聯網和計算能力的提高促進了大量資料的積累和分析,人類的認知的發展前景可期,前所未有。也許其中最重要的是人工智慧的發展。人工智慧可以依照人類的思考過程,發掘和解決複雜、看起來抽象的問題。

 

這種技術水準遠高於所謂自動化。自動化事關手段,通過合理利用機械化設備來達到預定的目標。而人工智慧則事關目的,它確立自己的目標。鑒於其成果是由自身評估的,人工智慧具有本質的不穩定性。人工智慧系統在運作中一直處於不斷變化的狀態,不停獲取並即時分析新資料,然後根據這一分析努力改進自身。 在這個過程中,人工智慧發展出了以前被認為只有人類獨有的能力。通過作為代碼接收的資料(例如遊戲規則),以及一些它自己收集的資料(例如100萬次遊戲的反覆運算),它可對未來做出戰略判斷。

 

無人駕駛汽車說明了傳統的人工控制、軟體驅動的計算機工作情形和人工智慧試圖探索的世界之間的差異。開車過程中需要判斷諸多無法預測、無法事先程式設計的情況。用一個著名的假設來說,如果一輛汽車被迫需要在某種情況下選擇殺死一個老人或殺死一個孩子,會發生什麼?它會選擇誰? 為什麼?在它的抉擇中,哪些因素會被優先考慮? 它能解釋它抉擇時的基本原則嗎?如果被問到這些問題,人工智慧如果能夠溝通的話,它給出的真實答案可能是,「我不知道(因為我遵循數學原則,而不是人的原則)」或「你理解不了(因為我已經被訓練成以某種方式行事,但沒有接受解釋行事方式的訓練)」。然而十年內,無人駕駛汽車就可能會被廣泛使用。

 

真相變成相對概念,資訊可能足以擊敗一切智慧。

我們要想到,人工智慧會比人類更快地犯錯、犯更大的錯。

 

人工智慧研究目前局限於特定的活動領域,研究正希望帶來能夠執行多個領域任務的「通用型」的人工智慧。 在不遠的將來,人類活動由人工智慧演算法驅動的比例越來越高。 這些演算法是所獲資料的數理闡釋,而不能解釋產生資料的基本社會現實。 矛盾的是,在世界變得更加透明的同時,也會越來越神秘。 這個新世界與我們所擁有的世界有什麼區別? 我們又將如何在其中生活? 我們將如何管理人工智慧,改進它,或者至少可以防止它造成不利。一切最終指向最深處的擔憂:人工智慧可以比人類更迅速而明確地掌握某些能力,隨著時間的推移,這可能會讓人類變得無能,甚至削弱人類境況本身,因為人工智慧把人生變成了資料。

 

人工智慧將及時在醫藥科學、清潔能源、環境問題等諸多領域帶來極大的好處。但正是因為人工智慧依據不斷發展、尚無定數的未來做出判斷,其結果具有固有的不確定性和模糊性。有三個問題尤其值得注意:

 

首先,人工智慧可能會導致意想不到的結果。科幻小說假設了人工智慧攻擊其創作者的場景。然而更可能的危險是,人工智慧由於其內在的語境缺失而誤解人類指示。最近有一個著名的例子是人工智慧聊天機器人Tay,它被用於以19歲女孩的語言模式生成友好的對話。但實際上,機器無法理解內置命令中「友好」和「合理」語言的必要性,其所生成的對話變得要麼充斥著種族歧視、性別歧視,要麼在互動中帶有極強煽動性。技術界的一些人聲稱該實驗構思不佳、執行不力,但它闡釋了一個潛在的不明確性:人工智慧能夠在多大程度上理解指令的語境?有什麼媒介可以説明Tay定義何為「冒犯言論」?鑒於人類其實並不普遍認同「冒犯」的涵義,我們是否可以在早期階段時,檢測和糾正在我們的預期框架之外行事的人工智慧程式? 或者,如若不管不問的話,人工智慧將不可避免地會和人類預設框架產生偏差,而這些偏差會升級成災難性的偏離嗎?

 

其次,在實現預期目標時,人工智慧可能會改變人類的思維過程和人的價值。AlphaGo通過戰略性、前所未有的下棋方法擊敗了圍棋世界冠軍。人類對這種方法還毫無概念,也沒有成功學會戰勝自己的這種下棋方法。這些超出了人腦的能力範圍嗎?或者說,現在人類可以從新老師的展示中學習下棋招數嗎?

 

在人工智慧開始玩圍棋之前,圍棋具有不同層次的目的:玩家不僅要贏,而且還要學習可能會適用於生活中其他場合的新的策略。相反,人工智慧則只知道一個目的:贏。 它不是在概念上,而是在數學演算法層面,通過對其演算法進行邊際調整來「學習」。 所以人工智慧在學習著以不同於人類的方法贏得比賽時,改變了圍棋的性質和影響力。是不是所有人工智慧都有這種一心一意堅持獨佔鰲頭的特徵?

 

其他人工智慧專案開發出工具,可生成一系列針對人們問題的答案,並以此來調整人類思維。除了事實問題(如「外面的氣溫多少?」)之外,關於現實本質或生命意義的問題值得深思。 我們是否希望孩子跟著不受限制的演算法塑造價值觀? 我們是否應該限制人工智慧對提問者的瞭解,以保護隱私? 如此一來,我們要怎樣實現這些目標?

 

如果人工智慧的學習速度比人類快得多,我們應想到,人類做決定依據的試錯過程於它而言可能也會更快,即,人工智慧會比人類更快地犯錯誤、犯錯的程度更大。正如人工智慧的研究人員經常提及的, 不可能通過在程式中設置警告,要求程式的結果「道德」或「合理」,以減少錯誤。人無法定義這些名詞,由此產生了一整套學科的理論原則。 人工智慧是否應該因此成為定紛止爭的仲裁員?

 

第三,人工智慧可能會達到人們預期的目標,但無法解釋它得出結論的理由。在諸如模式識別、大資料分析,博弈等領域,人工智慧的能力可能已經超過人類。如果它的計算能力繼續快速增加,人工智慧將很快能夠做出較優選擇,與人類的優化方案至少有略微差異,甚至可能差別很大。但到那時,人工智慧能夠以一種人類可以理解的方式解釋清楚,為什麼它的行為是最佳嗎?或者說,人工智慧的決策超過了人類的語言和理性能解釋的範圍嗎?縱觀人類歷史,文明發展出了解釋周圍世界的方式 :中世紀的方式是宗教;在啟蒙運動中,解釋方式為理性;到了19世紀,人們用歷史解釋世界;在20世紀,人們選擇意識形態來解釋。對於我們將要邁進的世界,最困難但最重要的問題是:如果人工智慧的解釋力超過人類的意識,社會不再能夠對他們生存的世界做出有意義的闡釋,人類意識將會變成什麼樣?

 

在人類的經歷淪為資料、資料通過記憶體進行自我解讀的世界裡,意識應如何定義? 誰對人工智慧的行為負責? 如何依據人工智慧的錯誤來確定責任? 鑒於人工智慧可以想得更深、甚至可能會規避法律設計,可否通過人類的法律系統設計,跟上人工智慧的節奏?

目前,人工智慧研究局限於特定活動領域,研究正希望帶來能夠執行多領域任務的「通用型」人工智慧

 

說到底,人工智慧這個詞可能用得不妥當。確實,這些機器可以解決以前只產生於人類意識的複雜、看似抽象的問題。但它們的特點是不會依據經驗思考。 相反,人工智慧靠的是全新的記憶和計算。由於人工智慧在這些領域的固有優勢,它有可能會贏得所有需要贏的遊戲。但我們作為人類的追求中,比賽不僅僅關乎輸贏,比賽是關於思考的。若把數學過程看作是一個思考過程,並且要麼試圖自己模仿這個過程,要麼只是接受這個過程結果,我們有可能失去一直是人類認知本質的能力。

 

這種演變的意義體現在最近的程式設計AlphaZero中。它下象棋的水準高於國際象棋大師們,風格在國際象棋歷史上聞所未聞。對它來說,區區幾個小時的自我對弈後,它就達到了需要人類1500年才能達到的的技能水準。 AlphaZero只被告知遊戲的基本規則。 它的自我學習過程不涉及任何人類或是人為產生的資料。 如果AlphaZero能夠如此迅速地掌握象棋,人工智慧在五年內將會發展到什麼程度? 對人類認知的一般影響是什麼? 在這個過程中,本質上加快了抉擇的道德因素起了什麼作用?

 

通常,這些問題被留給技術人員和相關科學領域的知識份子去解決。哲學家和人文科學領域的其他人曾幫助塑造世界秩序的概念,現在則因缺乏對人工智慧機制的了解(?)或被人工智慧的能力所震懾,往往處於不利地位。

 

相比之下,科學界則努力探索成就的技術潛能,技術界專注於大規模、神話般的商業前景。它們的動力都是推動科學發現的極限,而不是理解科學發現。 在治理問題上,就本文主題而言,科學界更有可能關注人工智慧應用的安全和智慧,而不是它所帶來的人類境遇的轉變。

 

啟蒙運動本質上始於由新技術傳播的哲學見解。我們時代的情況恰恰相反。當下已存在可以統領一切的技術,但需要哲學的指引。許多國家已經把人工智慧立為國家主要項目。美國尚未從國家層面系統地全面探究人工智慧、研究其含義或開啟終極學習的進程。尤其是從人工智慧與人性相關的角度來看,這議題本應是國家的當務之急。

 

人工智慧開發人員在政治和哲學方面缺乏經驗,就像我面對著技術一樣。他們應該多問問自己一些我在此提出的問題,從而為他們的技術工作尋找答案。 美國政府應該考慮由傑出的思想家成立總統委員會,協助國家擴展視野。有一點很肯定:如果我們不儘快開始這項工作,不久我們就會發現開始得太晚了。

 

《01哲學》,哲學入門,深入淺出,更好地理解,更好的邏輯。
立即下載《香港01》App:https://hk01.onelink.me/FraY/hk01app