伊朗戰爭|AI軍事應用成大趨勢 人類會是「主人」抑或「奴隸」?
在最新爆發的中東戰爭中,用來篩選和確認攻擊目標的人工智能(AI)被美國和以色列軍方派上用場,大大提高了情報處理和作戰效率,但也引發對AI準確性及出現失誤時責任歸屬的擔憂。目前,最終的打擊決策仍掌握在人類手中,但由於監管措施未到位,各國若為爭奪軍事優勢而逐漸放權給AI,科幻電影中AI掌控世界與人類生殺大權的末日場景,會否終將成為現實?專家告誡,最安全的做法是永遠不要把關乎人類生死的決策權交給AI。
「它無法被說服。它不懂憐憫、悔恨或恐懼。它絕對不會停手,永遠不會,直到你死去。」這是1984年經典科幻電影《未來戰士》(The Terminator)中對殺手機械人的描述。影片講述了一個AI控制的殺手機械人穿梭時空回到過去,試圖殺害未來人類抵抗軍領袖之母,以終結人類反抗AI的驚悚故事。
電影上映時,片中場景似乎遙不可及,但隨着AI技術被大量應用到最新爆發的中東戰爭中,人們開始擔心影片所描述的未來正迅速逼近現實。
美國和以色列2月28日對伊朗發動軍事行動,美軍在短短24小時內打擊了1000個目標,速度之快前所未見。
據報道,這是2003年伊拉克戰爭爆發首日火力的兩倍,更遠高於1991年為將伊拉克軍隊趕出科威特而發起的「沙漠風暴」行動開始時,所打擊的150個目標。
美軍能做到這一點,正是因為它使用了先進AI技術。據了解,美軍主要使用由數據分析巨頭Palantir於2018年開發的Maven智能系統,藉助AI分析數據,以識別目標並排序優先級。
美軍也將AI初創企業Anthropic開發的生成式AI大語言模型Claude,集成到Maven系統,用於處理和匯總前線情報並生成目標,共同構成一個針對伊朗行動的實時數據分析平台。
據報道,這個平台在策劃對伊朗的打擊行動時,生成了包含上千個選項的潛在目標數據庫,並根據戰略重要性對目標進行優先級排序。平台還將特定的軍事單位和最合適的彈藥,例如針對地下設施的鑽地彈或針對建築物的衛星定位制導炸彈,與具體目標自動匹配。它還能模擬戰術場景、評估打擊的合法性及協助進行戰損評估。
美國中央司令部司令庫珀(Brad Cooper)3月11日承認美軍在與伊朗的戰爭中使用「多種」AI工具,幫助美軍士兵處理海量數據,但他沒有透露具體使用了哪些工具。
AI擅長高速處理龐大數據 但若訊息缺失會憑空捏造
以色列軍方也用了AI,據報它的主要系統為Lavender與Gospel。在加沙戰爭中,以色列的大規模監控系統把加沙等地區居民的數據輸入Lavender系統,由它負責識別和生成人員目標;Gospel系統則主要負責分析建築物和地形。
目前不清楚伊朗是否在作戰體系中部署了AI,以及具體部署了哪些系統。伊朗在2025年聲稱將在導彈瞄準系統中應用AI,但據英國《衛報》分析,,伊朗受國際制裁影響雨,其AI項目與美國和中國這兩個AI超級大國相比,規模似乎微不足道。
AI應用到軍事上的好處顯而易見,它擅長高速處理龐大數據,大幅縮短「殺傷鏈」(Kill Chain),即把發現目標、人類審批到執行打擊的整個決策和規劃流程,從過去的幾小時或幾天,極大地壓縮到幾分鐘甚至幾秒鐘。這不僅提高效率,也減少人力,把過去可能需要2000名分析師才能完成的工作量縮減至約20人,讓人類可專注於更高層級的決策、後勤保障和任務規劃上。
AI也已部署在用於偵察和打擊任務的無人機、處理爆炸物的地面機械人等,由機器來執行危險任務,進而提升士兵的安全。
不過,事情總有正反兩面,AI在軍事應用中雖然前景廣闊,但在安全性和不可控方面卻引發擔憂。
首先,AI驅動的系統容易受到黑客攻擊和篡改數據,一旦AI平台遭入侵,敏感信息可能泄露,甚至被敵人利用來提供虛假情報。
其次,任何使用過AI聊天機械人的人都知道,它們有時會犯下錯誤,但又會把錯誤或誤導性的分析說得頭頭是道,極具說服力。在緊張的戰爭時期,這尤其可能讓指揮官和分析人員更容易採納它們的建議。
英國倫敦大學學院電腦科學系榮譽教授本特利(Peter Bentley)回答《聯合早報》詢問時指出,AI大語言模型的最大問題是,當面臨訊息缺失時,它們會「產生幻覺」,即憑空捏造不存在的結果。
他說:「我們無法判斷它們的結論是虛構的還是基於現實,因為AI非常擅長呈現看似合理且逼真的結果。也就是說,如果你根據AI的分析結果來瞄準目標,很可能無法正確打中。在最糟糕的情況下,這可能意味着無辜平民的喪命,而這僅僅是因為有人太相信AI。」
AI只看數據不講倫理 人命關天人類責無旁貸
新加坡南洋理工大學拉惹勒南國際研究院(RSIS)研究員Manoj Harjani也告訴《聯合早報》,在軍事領域使用AI的一大擔憂在於難以預測AI驅動系統的行為方式,以及難以理解其行為背後的原因。他表示:「這給問責制和責任承擔帶來了挑戰。」
換句話說,如果用AI生成的錯誤結果導致了誤判,那應該是由AI還是人類來承擔責任?
伊朗戰爭開打首日,一枚導彈擊中伊朗南部米納布市(Minab)一間女子小學,造成約170名孩童死亡。美國媒體引述知情者說,原因是美方使用了過時的數據,從而製定錯誤的打擊坐標。
美方至今未承認是其導彈擊中學校,只表明正在調查。庫珀雖承認美軍使用AI作戰,但強調美軍是否以及何時發動軍事打擊,最終決定權始終掌握在人類手中。若以此為依據,無論美方調查結果如何,造成人員傷亡的責任方將是人類而非AI。
本特利在談到如何負責任地使用AI時指出,人類歸根結底還是應對人類的生命負責。他表示:「即使我們使用工具來幫助了解局勢,也須親自核實這些工具的有效性;如果我們真的必須相互廝殺,那應該由人類自己來執行,而不是把責任推卸給機器。」
展望未來,在軍事領域運用AI的趨勢已勢不可擋,而分析認為,在AI領域取得決定性優勢的國家將掌控未來衝突的節奏,因此,21世紀軍事競爭的核心將是爭奪AI主導權。
但與此同時,人們必須在作戰效率和倫理責任之間尋求平衡,除了加大對AI技術的投資,更須建立保障措施、法規和故障保護機制,以確保AI的使用是負責任的。
AI軍事監管尚無定案 負責任使用挑戰巨大
就在美軍採用Anthropic開發的AI模型打擊伊朗之際,五角大樓竟然與Anthropic就軍事AI的安全紅線起爭執。
爭端起因是五角大樓要求Anthropic簽署合同,允許軍方「不受限制」地把Anthropic技術用於「所有合法用途。
但Anthropic首席執行官Dario Amodei堅持,合同須列明兩個例外情況:不得對美國公民進行大規模監控,以及不得開發完全自主且無人監管的武器。
Anthropic的「不識時務」,引發白宮強烈不滿。2月27日,也是美軍襲擊伊朗前一天,美國總統特朗普(Donald Trump,又譯川普)指示所有聯邦機構立即停止使用Anthropic技術;國防部長赫格塞思(Pete Hegseth)也要求把Anthropic及其產品,列入對國家安全構成威脅的「供應鏈風險」名單。這個極其罕見的措施,在歷史上只用於外國對手的企業。一旦被列入名單,國防部將禁止它的所有承包商與Anthropic進行任何商業交易。
Anthropic和五角大樓的爭執核心之一是自主武器。
自主武器面世僅遲早問題 人類是掌控它還是反被掌控?
自主武器(Lethal Autonomous Weapon Systems)是指無需人類干預或操控,即可通過AI獨立搜尋、識別和攻擊目標的武器系統。批評者也把自主武器稱為「殺手機械人」,這也是人們對《未來戰士》主角阿諾舒華辛力加(Arnold Schwarzenegger)飾演的T-800型終結者機械人的稱呼。
目前人類已有很多具備某些自主功能的武器,例如:可自行識別、選擇和攻擊目標的導彈;可自行排雷的無人潛艇;可組成蜂群網絡並獨立執行任務的無人機。
當中,無人機已大量應用到俄烏戰場上,但這些無人機並非完全自主,另一端仍有人類在遠程操控。
隨着AI和機械人領域的迅速發展,完全自主的武器系統面世,只是時間問題。但令人不安的是,目前尚無專門的國際條約規範在武裝衝突中使用AI,更別說是管制自主武器了。
不過,國際科學期刊《自然》網站在3月10日發表的社論指出,國際人道主義法明確規定,武器不得濫用。此外,作戰人員必須採取預防措施,核實目標,並將平民傷亡風險降至最低。這些要求同樣適用於AI,如同適用於任何其他軍事技術一樣。
RSIS軍事轉型項目副研究員劉美均回答《聯合早報》詢問時指出,國際社會其實已討論規範軍事AI應用的問題10多年。她說:「自2016年以來,聯合國致命性自主武器系統政府專家組一直是這些討論的主要平台。」
劉美均稱,專家組目前獲授權制定一套框架文本,以解決自主武器引發的問題。雖然文本的具體內容未定,但授權範圍並不包括針對一項具法律約束力的條約進行談判。專家組的任期將於今年底屆滿,到時將由《特定常規武器公約》(Convention on Certain Conventional Weapons)締約國決定是否延長任期,以及延長後的具體授權範圍。可以肯定的是,國際社會無法在今年達成一項具法律約束力的協議。
劉美均透露,AI在軍事領域的更廣泛應用目前也在其他論壇上進行討論,包括負責任AI全球委員會(REAIM)和聯合國大會第一委員會。當中第三屆REAIM峰會於2月4日至5日在西班牙舉行,峰會成果文件《行動路徑》僅獲得約40個國家的認可,認可率遠低於前兩屆。
劉美均說:「這份成果文件不具法律約束力,但發出重要的政治信號,表明各國承諾遵守在軍事領域開發和使用AI的具體原則。支持率下降確實令人擔憂。」
Manoj Harjani則認為,國際社會關於軍事AI治理的討論,即使在約束國家行為方面可能顯得力度不足,卻依然是各國以及私營部門等各方交流觀點的重要途徑。他表示:「這些交流的目的應該是增進相互理解,並鼓勵制定負責任地在軍事領域使用AI的規範。」
專家籲求各國堅持對AI掌控
管制措施尚未到位,但各國為了爭奪軍事優勢,想來也不會停下開發更強大和更自主武器的腳步。到了科技成熟時,如果將決定人類生死的最終權力交給缺乏情感和道德觀的機器,是否會引發不必要的殺戮?到時,人類是否還能駕馭AI,抑或被AI掌控?
若不想失去對AI的控制,本特利告誡,最好的做法是不要「把我們的生命託付給這些非人類的智能體」。
他以駕駛火車為比喻指出,在AI軍備競賽中,即使看到其他國家以更高速度推進,也不應放棄對AI的掌控,更必須在必要時介入甚至踩下煞車。
他強調:「不要跳下駕駛座,繼續駕駛,也不要害怕踩煞車。僅僅因為你看到其他AI『失控列車』以驚人的速度行駛,並不意味着你必須效仿它們。」
本文獲《聯合早報》授權轉載