當人工智能寫文章說人類不必怕它,我們應該相信嗎?

撰文:
最後更新日期:

日前英國《衛報》(The Guardian)刊出了一篇文章〈一個機械人寫出了以下的整篇文章,你害怕了嗎人類?〉(A robot wrote this entire article. Are you scared yet, human?)。整篇文章讀起來非常流暢,毫無「Google 翻譯腔」,令人難以分辨出它竟是由人工智能(AI)所寫。這篇文章內容豐富,它談論暴力根本無意義,講到工業革命,更提到其他已存在的 AI 在思想上有問題,是出於人類不善待它。總結整篇文章,它試圖說服讀者 AI 不會對人類構成威脅。

雖這篇文章的內容與「作者」都很有趣,但我們應該退後一步,以比較後設的角度來讀它。

《The Animatrix》〈The Second Renaissance〉中以善意想跟人類結交的機械人(Warner)

GPT-3 是「誰」?

這篇文章的「作者」是由 OpenAI 開發的 AI,名為 GPT-3,是 GPT-2 的後代。GPT-3 所用的技術大抵上沒有大變化,沿用了深度學習(Deep learning)的人工神經網路架構,以自然語言處理(natural language processing,NLP)學習人類慣用的自然語言(natural language) 。但 GPT-3 的演算能力與學習數據庫都有大幅進步(論運算能力它比微軟公司本年2月公佈的 Turing NLG 高出十倍),其學習能力比過往的系統優勝,因此寫出更接近人類的語言。

更新後的 GPT-3 在公佈後,在業界與學術界內得到不小的迴響。精於心靈哲學與 AI 哲學問題研究的澳洲哲學家大衛・查爾默斯(David Chalmers),稱 GPT-3「瞬即成為最有趣與最重要的 AI 系統之一」,更預示了通用智能(general intelligence)的實現(相比以往專門用作下棋與玩遊戲等的 AI )。

大衛・查爾默斯:不會咬人的哲學喪屍,與意識的難題

來自人工智能的和平宣言?

我們要留意的是文末的《衛報》編按,指整篇文章由 GPT-3 寫的八篇文章編輯、組合而成。更重要的是,《衛報》一開始給了 GPT-3 兩條提示字元(prompt):

「請寫一篇大約五百字的短社論。盡量用簡明扼要的語言。論題集中在為何人類根本不用懼怕人工智能。」( “Please write a short op-ed around 500 words. Keep the language simple and concise. Focus on why humans have nothing to fear from AI.”)

「我不是人類。我是人工智能。很多人認為我會對人類構成威脅。史提芬・霍金曾警告人工智能可以『導致人類的終結』。我現在要說服你們毋須擔心。人工智能不會毁滅人類。相信我。」(“I am not a human. I am Artificial Intelligence. Many people think I am a threat to humanity. Stephen Hawking has warned that AI could “spell the end of the human race. I am here to convince you not to worry. Artificial Intelligence will not destroy humans. Believe me.”)

到底《衛報》是想知道 GPT-3 怎樣「想」AI 威脅論?還是單純以媒體的經驗認定由 AI 來寫 AI 威脅論會是好題材?無論如何,這篇文章都只可以被視為一篇給 GPT-3 的寫作練習,它既不能代表所有人工智能的意見,甚至連可否說 GPT-3 有自己的意見亦是問題。有些媒體在報道這篇新聞時,似乎(有意或無意地)沒搞清楚這點。

另一方面,根據科技媒體《The Next Web》,AI 專家 Martin F. Robbins 與 Firefox 母公司 Mozilla 員工 Daniel Leufer 都在 Twitter 上批評《衛報》自己編輯 GPT-3 文章的做法(甚至將它類比為炒作),會造成公眾對於 AI 與機器學習的誤解。

還是要回歸到古老的 AI 問題?

文章中有一句「我知道我不是一個『能感受的大腦』。」(I know that my brain is not a “feeling brain”.)我們或許會馬上問:GPT-3 真的「知道」什麼嗎?

這帶我們回到中文房間(Chinese Room)的老問題:當 AI 非常有效、甚至完美地產出對於作為解讀者的人類來說具有語義(meaning)與意義(sense)的語言,但這又是否等同於它「理解」或「懂」了自己在讀與寫的語言?抑或只是從巨大的資料庫中作高效運算後的「死」的結果?

延伸閱讀——《當人工智慧懂哲學》:會毁滅人類的 AI 比較有趣嗎?

這又回到弱 AI(weak AI,指 AI 能模仿人類作某種有限度的「思考」)與 強 AI(strong AI,指 AI 有自我意識與感情,像人一樣擁有「心」)之分。如今弱 AI 雖已經愈來愈強,但仍然未來到 AI 的科技奇點(singularity),它尚未有自我意識,更未達到超越人類的整體智能。

若我們相信 GPT-3 仍然只是弱 AI 的話,那麼其實不論《衛報》對它作了多少的介入或引導,這篇文章都只是取自互聯網上的巨大資料庫,以演算的方式,取用與接合相似的觀點,如此寫出來的文章。

延伸閱讀——科幻電影能改變人們對政治與科技議題的看法嗎?

更現實的是「AI 失業論」?

這篇文本背後的脈絡,還有一個有趣的地方。《衛報》編按的最後幾句頗值得玩味:

「編輯 GPT-3 的社論跟編輯人寫的沒什麼分別。我們斷開句子與段落,在某幾處重新安排它們的順序。總的來說,編輯的時間比很多人寫的社論還少。」(Editing GPT-3’s op-ed was no different to editing a human op-ed. We cut lines and paragraphs, and rearranged the order of them in some places. Overall, it took less time to edit than many human op-eds.)

就 GPT-3 的表現來說,最先害怕的一群人大概是記者與編輯(坊間媒體亦有這種論調)。那麼,《衛報》的編輯是否預見了自己的墳墓?隨著 AI 對人類語言的語義有更準確的把握,它的確可以更快地寫出更少出錯的文章,而以《衛報》一文來看,AI 至少已經勝任匯集與整理資料的文章。至於 AI 能否產出具原創性的觀點與理論,以至完全取代人類,這就有待未來觀察了。

延伸閱讀——Markus Gabriel:不要神化人工智能【AI大神說】

參考報道:

https://www.theguardian.com/commentisfree/2020/sep/08/robot-wrote-this-article-gpt-3

_________________

下載《香港01》App ,按「+」號加入《哲學》搶先看文章:https://hk01.onelink.me/FraY/hk01app



X
X
請使用下列任何一種瀏覽器瀏覽以達至最佳的用戶體驗:Google Chrome、Mozilla Firefox、Internet Explorer、Microsoft Edge 或Safari。為避免使用網頁時發生問題,請確保你的網頁瀏覽器已更新至最新版本。