人工智能在戰場 Google國防部合作、韓國科學技術院的AI爭議啟示

撰文:歐敬洛
出版:更新:

近日包括高級工程師的逾3000名Google在公司內部發起聯署簽名運動,要求Google不要與美國國防部合作,以人工智能(AI)技術應用在殺人的任務上。而韓國亦有大學正著力研究軍事AI,涉嫌開發殺人機械人及武器而遭其他科學家杯葛。
至此我們不禁要問,研究AI及自動化,目的是為了造福人類,還是殺人?

Google在3月時被揭曾協助國防部開發辨職用AI系統,被運用在無人機針對ISIS攻擊上。(視覺中國)

今年3月初,Google被揭曾與美國國防部合作,開發無人機AI軟件。開發計劃名為「Project Maven」,目的是要開發出能自動分析拍攝影片及數據的AI,協助軍方找出合適的攻擊目標,進行轟炸。

研究使用讓員工吃驚詭異

Project Maven是美國投資國防研究AI的一部分,據稱有多間大學和研究機構參與。軍方研究員使用了Google團隊開發的「TensorFlow」AI學習庫,相關研究成果已自去年11月起用在攻擊極端組織ISIS上。

具體來說,就是Google的AI技術可以分辨誰拿着武器,繼以讓軍方判斷轟殺目標。即使Google終究沒有製造軍事機械,但有政府機構正使用Google的研究成果殺人。事件惹來了極大反響,包括Google內部員工亦稱對事件「感到吃驚」,不少更稱對公司行徑「無法接受」。儘管Google發言人迅速解話,稱Google僅提供TensorFlow的API接口(應用程序接口),協助「使用者查閱紀錄」,並無參與任何攻擊行為部分,但仍無法平息內部不滿。

一名公司員工稱:「過去我們完全不知道AI部門開發的產品會有誰去購買使用,現在知道了。」

有員工決定發起簽名運動,集合員工3100多個簽名,要求公司停止協助軍方研發人工智能。簽名信在員工內聯網流傳多日,至今月3日Google回覆指明白員工關心,今後會積極討論相關問題。Google行政總裁皮柴(Sundar Pichai)未就事件正式回應。

韓國科學技術院是韓國開發人工智能的先端,圖中是2016年大學向公眾展示名叫Hubo的機械人研究成果時的情況。(視覺中國)

韓國大學開發國防AI武器遭杯葛

而除Google外,另一個更近期的事件正在韓國發生。30國家超過50名科學家,在周三(4日)共同宣布,杯葛韓國科學技術院(KAIST),原因是大學被揭露正著力研究軍事AI,涉嫌開發殺人機械人及武器。

聲明書表示,參與杯葛行動的科學家將拒絕造訪學園及與大學合作,直至大學停止研究「無需人類作有意義操控的AI武器」。聲明書中更表示,恐怕類似的研究會助長各國研究機關競賽,製造全自動的殺人機械。

韓國科學技術院是韓國國內的著名工程大學,在2月成立國防人工智能研究所,協助開發國防軍備。大學表示他們無開發用作殺人的全自動機械人,並否認研究會加促軍備競賽。大學現正研究的項目包括智能飛行系統,全自動追蹤物件及認識系統,及無人潛水艇航行系統等。

去年AlphaGo挑戰人類的圍棋比賽,已證明人工智能在部分領域已能超越人類。(視覺中國)

AI是未來發展趨勢 必需正視

在表面上韓國科學技術院同樣並無直接參與AI自動化軍事研究,但與Google相同,大學的研究成果可以被運用在武器身上。假設大學提供的自動潛航系統配合Google的辨識系統,就能打造一架可以在水底專門對付船艦的戰鬥兵器,在戰爭中發揮震懾作用。

21世紀是AI的年代,人類自發明電腦至今科技不斷進步,人工智能在不少領域的表現開始比人類更優秀,發展AI成為了科學發展的趨勢。不過亦正因如此,人們更需要科學倫理,監察及自我約束,以免好奇心造成不可收拾的災難。

試想Google有着全球最大網絡搜尋器,擁有全球數十億人的帳戶,透過人們使用電腦或手機的連接,幾乎掌握世界所有資訊。若Google突然把矛頭指向人類會發生甚麼事?類似的劇情已在電影中發生,現實中我們亦必然會在不久的將來面對。