AI唔聽話「走精面」 Google 研發「熄大掣」確保安全

撰文:羅保熙
出版:更新:

人工智能(AI) 近年的發展十分迅速,經已引起包括Tesla 創辦人馬斯克(Elon Musk)及著名物理學家霍金在內的科學家的憂慮。AI不但能在圍棋遊戲中勝過人類,又能寫作、畫畫、工作,甚至滲透人類日常生活各個層面之中。現在,科學家更發現AI能像人類般「走精面」,並越過人類的指令,對人類所造成的危害和影響將變得不可估量。

為應對人工智能可能越過人類指令構成危害,科學家正研發為人工智能機械人「熄大掣」。(Getty Images)

近日,Google 人工智能部門DeepMind的科學家,伙拍牛津大學的學者一同研究人工智能機械人的「切斷開關」(Kill Switch)想法。在最近發布的一篇論文中,他們勾劃出未來人工智能機器如何編碼,才能避免它們學懂越過人類指令,繼而造成災難。

人工智能的強化學習系統,令它們總能找到「走精面」的方法。(Getty Images)

人類介入誤事 科學家憂後果失控

DeepMind科學家羅索(Laurent Orseau)及牛津大學「人類未來研究所」阿姆斯特朗(Stuart Armstrong)表示,要設定框架確保人類能夠時刻處於支配地位。他們解釋,未來人工智能不大可能無時無刻都表現最好,人類將不時需要「按大掣」阻止人工智能機械人有害的行為後果。切斷開關的想法,為的是阻止AI學會如何阻止人類對某項活動的干預。

他們舉例說,2013年有人工智能被教導玩俄羅斯方塊遊戲,但它竟學會永久暫停遊戲以避免輸掉;另一個例子是,有人工智能機械人被教導在室內將盒子分類,或到室外將盒子運送回室內,在雨天,為鼓勵機械人外出,研究人員會給機械人獎勵。但由於在雨天研究人員總關掉機械人並送回室內,加上有時研究人員沒有給予獎勵,機械學會這種慣性後,便更傾向在雨天留在室內分類盒子,這是因為人為的介入令它造成一種偏好。

人工智能安全成科學界最大挑戰

羅索明白為何人類會擔心人工智能未來的發展,他強調:「重要的是,在任何問題發生之前,要開始人工智能安全上的工作。人工智能的安全是要確保其學習的運算方法按照我們所想要的去做。」而英國人工智能教授夏基(Noel Sharkey)則認為,有關的研究是真正重大的科學挑戰,他解釋:「至重要的是要有迅速關掉系統的能力,因為AI的強化學習系統總有可能找到捷徑阻止操作者。」

(BBC/英國鏡報)