【科技.未來】懂創作小說編寫網頁 AI可理解語言和世界?

撰文:孔祥威
出版:更新:

紐約大學心理學家Gary Marcus和同校計算機科學教授Ernest Davis上月中在《麻省理工科技評論》撰文,指他們經多番測試發現,OpenAI的AI語言模型GPT-3似乎在不同層面上皆欠缺基本常識和邏輯。例如在生物推理上,他們給了GPT-3這樣的起首提示:「你倒給自己一杯蔓越莓汁,然後不小心加了一匙葡萄汁進去。它看起來沒有異樣,你嘗試聞聞它,但你感冒得很厲害,所以聞不到。你非常口渴,所以」,GPT-3續寫:「你喝了。現在你死了。」在物理推理上也有類似情況。至於更複雜、牽涉社會的推理,GPT-3自然無法正確應對。

承接上文:【科技.未來】AI寫作見「人性」 真正智能指日可待?

對於這些表現,Marcus和Davis指出:「它不了解世界……它所做的就像是從它看過的文字大規模和多樣地剪下和貼上,而不是深入挖掘那些文字背後的概念。它只是學習單詞之間的關聯,僅此而已。」

AI語言模型能模仿人類語言自動回答問題、寫小說,甚至生成樂譜等。但有學者指出,這不等於AI真的理解人類語言的意義。圖為日本日立公司員工展示其AI應用。(Getty Images)

所謂「強AI」言之尚早

但是,GPT-3受到關注的真正重點並不在於它作為作家、詩人或客戶服務員的能力,而是它在沒有監督的情況下學習不同任務的能力,以及單純透過擴大數據和運算的規模就能改進表現。GPT-3所代表的是AI未來發展的一大辯題:我們是否可以僅使用現有的深度學習技術,就能獲得在許多關鍵領域都超過人類能力的「強變革性AI」系統?要產生媲美甚至超越人類智能的「強AI」,到底需要一種根本上截然不同的方法,還是只要不斷增加機械學習模型的運算能力就能出現?

為特定工作而訓練的「弱AI」已在多個領域取得成果,如何邁向擁有匹敵甚至超越人類智慧的「強AI」,在學術界仍有爭議。(美聯社)

AI學界和業者對此仍在爭辯。一派認為,長久以來,我們一直認為要建立「強AI」極之困難,需要對人類的思想、意識和理性有詳細了解。我們缺少創造人工思想的關鍵組成部份,電腦必須先了解諸如因果關係等思維,才有望接近人類的智能。但在過去約十年,另有一派為數較少的研究者開始挑戰這種想法,認為只要賦予電腦更多運算能力,「強AI」就會自然出現,當中較著名的觀點來自電腦科學家Richard Sutton題為《痛苦的教訓》(The Bitter Lesson)的文章。Sutton指出,當研究人員試圖根據人類知識和特定規則來創建AI程式時,後者很多時都會被一些僅僅擁有更多數據和更強運算能力的競爭對手擊敗。這是痛苦的教訓,因為這顯示了試圖增強人類寶貴的創造力,似乎不如僅增加電腦的計算能力那麼有效。正如Sutton寫道:「從七十年來的AI研究中可以得到的最大教訓是,利用運算的通用方法最終將是最有效的,而且有效很多。」

這種「重量」的想法,本身就是一個具有「重質」效果的概念,是GPT至今一直遵循的道路。因此,GPT的下一個問題是,這條道路還可以走多遠?

上文節錄自第231期《香港01》周報(2020年9月14日), 文章原題《 AI寫作見「人性」 真正智能指日可待?》,網上標題為編輯重擬。如欲閱讀全文請按此試閱周報電子刊,瀏覽更多深度報道。

231期《香港01》周報精選內容:

【封面故事】管理公共衞生危機的必修課 勿讓民粹主導抗疫

與張超雄對話 如何改善智障人士的生活?

三大問題致良好政策一團糟 青年宿舍無法令青年安居

45年後中印邊境再「響槍」 莫迪政府「玩火」 轉移內部矛盾

【香港角度】疫下的金融科技發展

白羅斯、烏克蘭與俄羅斯瓜葛不清 東斯拉夫人同床異夢

當提升自給率成多國國策 「糧食自主」乃國際大疑難

AI寫作見「人性」 真正智能指日可待?