馬斯克的警告是對的 應對AI技術爆炸的關鍵是以道馭術

撰文:鄧峰
出版:更新:

最近,正當世人尚在驚歎ChatGPT、GPT-4所代表的人工智能(AI)技術突飛猛進時,著名科技領域企業家馬斯克(Elon Reeve Musk)聯合上千名企業家和科技專家發表公開信,呼籲實驗室暫停開發比GPT-4更強大的AI系統,暫停時間至少6個月。他們建議共同制定和實施一套安全標準,防止AI技術可能帶來的潛在風險。

他們的建議是有道理的。本來過往人類歷史已經證明,技術爆炸具有兩面性,既會帶來的生產力的進步,為人們生活和工作創造便利,又會帶來一些負面效應。為技術爆炸建立一道防護欄,儘可能讓技術發展在可控軌道上進行,是合理的選擇。尤其重要的是,與以前人類社會的技術有所不同,AI技術指向的是對人類存續極為關鍵的智能,是否會造成普遍的棄民,是否產生自主意識,存在不確定性。

關於這一點,對AI技術有專門研究的麻省理工學院物理系終身教授邁克斯·泰格馬克(Max Erik Tegmark)在他的著作《生命3.0:人工智能時代人類的進化與重生》中寫過:「如果人工智能始終保持進步的勢頭,將越來越多的工作自動化……許多人對就業形勢十分樂觀。他們認為,在一些職業被自動化的同時,另一些更好的新工作會被創造出來。畢竟,過去也發生過類似的事情……還有一些人對就業形勢十分悲觀。他們認為,這一次和以前不一樣,空前龐大的人群不僅會失去工作,甚至會失去再就業的機會……一些職業樂觀主義者認為,在體力職業和腦力職業之後,會出現一波新的職業,這就是創造力職業。但職業悲觀主義者卻反駁說,創造力只是另一種腦力勞動而已,因此最終也會被人工智能所掌握。」

關於AI會否統治人類,他認為:「我們現在之所以能統治地球,是因為我們比其他生命更聰明。那麼,如果出現一個比我們更聰明的超級智能,那它同樣也可能會推翻我們的統治……超級智能或許會促成更大宇宙尺度上的合作,但是,它最終會導致極權主義和由上而下的控制,還是會賦予個體更多權力,目前尚不清楚。」

ChatGPT母公司OpenAI於2023年3月14日推出最新人工智能模型GPT-4。(OpenAI網站)

對待AI技術的發展,目前樂觀和悲觀的聲音都有,很難說孰對孰錯。對於悲觀者來說,不應否認的是技術在許多時候具有一定的中立性,AI技術是有可能造福人類。不妨設想一下,假若有一套行之有效的防護機制和分配機制,AI技術一旦實現大飛躍,能以較低成本生產出大多數人類所需的產品和服務,那麼古往今來許多人都曾夢想過的人類的解放便不再遙遠。對於樂觀者來說,不能忽視合理限度的監管和制定實施安全協議的必要性,不應天真以為技術進步的雨露會普降到每一個身上,不能盲目以為人類一定是地球的主宰者,是獨一無二的上帝選民。

世間許多事情,都不宜說得那麼絕對,都不能不審慎對待。對待充滿相當大不確定性的AI技術,尤其應該保持審慎的態度,過於悲觀或過於樂觀,都不是理智選擇。目前AI技術因為知識量豐富、整合能力強但原創性、思想性、邏輯性不足,短期內難以替代人類,但從更新迭代的速度來看,從長遠趨勢來看,AI是有可能淘汰目前人類的多數工作崗位。一旦如此,那些工作崗位被替代的人類是否有新的就業機會?貧富分化會否進一步擴大?掌控AI技術的企業會否趁勢統治人類?AI會否在不斷進化之中產生自主意識,從而脱離人類的掌控?這些都是難以輕下結論的問題。現在未發生或現在認為不可能的事情,不代表未來不會發生。

許多事情都是「預則立,不預則廢」。在人類社會已經進入人工智能時代的今天,面對AI技術爆炸所存在的相當大不確定性,未雨綢繆、以道馭術正日益變得緊迫。這絕不是阻礙或反對AI的發展,而是希望在AI正常發展過程中早日設置必要的防護欄,引入透明、可靠、經得起時間檢驗的安全規範和科技倫理,讓技術發展健康可持續並造福於民。畢竟,未經準備的AI技術爆炸恐讓人類文明失去控制。