狙殺哈梅內伊的幕後功臣:Claude和Palantir如何改變戰場?

撰文:藺思含
出版:更新:

美國和以色列2月28日聯手向伊朗發動軍事行動,攻擊首都德黑蘭(Tehran)等地,伊朗最高精神領袖哈梅內伊(Ali Khamenei)其後確認身亡。就在美以對伊朗發動襲擊的第二天,《華爾街日報》與Axios的報道證實:AI巨頭Anthropic開發的大語言模型 Claude,已深度參與了這次高度保密的軍事行動,而且比起此前美軍捉拿委內瑞拉總統馬杜羅(Nicolas Maduro)時,其模型在決策過程中發揮了更關鍵的作用。

此次襲擊的另一位幕後功臣是Palantir開發的Maven Smart System (MSS)。據知情人士透露,在策劃對伊朗的打擊時,由Claude驅動的MSS提出了數百個目標建議,不僅精確標註了坐標,更根據戰略重要性自動完成了排序,並為軍方推薦武器、評估行動的法律合規性,實時進行多樣化的戰場模擬。

儘管美軍中東司令部(CENTCOM)究竟採納AI給出哪些方案尚不得而知,但可以肯定的是:AI已經深度嵌入了美軍全球作戰指揮室的核心。

事實上,就在此次行動前,五角大樓因與Anthropic的嚴重分歧而宣布停止與該公司的合約。據美媒報道,國防部想要修改此前簽訂的合約,想將Claude用於「所有合法用途」,但Anthropic堅持要保留安全限制,不肯開放到可以用來發展全自動武器或大規模監控,結果被特朗普(Donald Trump)政府「封殺」。

但即便是在軍方與Anthropic關係破裂的時刻,這種「技術依賴」也讓決策者難以立刻回頭。華盛頓郵報引述一位知情人士說,如果Anthropic行政總裁 Dario Amodei要求軍方停止使用其算法,特朗普政府將不得不動用政府權力保留其技術,直到找到其他替代者。

美國中央司令部(CENTCOM)遵照總統指令,於當地時間周六(28日)展開名為「史詩憤怒」(Operation Epic Fury)的軍事行動。圖為美軍發布的相關照片。(CENTCOM)

讓打仗如同「打遊戲機」?

或許有人好奇,這個全球最強大的軍事力量,是如何對其產生高度的「技術依賴」?在理解Claude的角色之前,我們先認識由Peter Thiel等人創辦的Palantir的軍事軟件,後者為這場數碼戰爭提供了骨架。其核心組件Ontology(本體層)與Gotham(分析層),就像是一個龐大的「數據翻譯官」。它能將衛星圖像、無人機影像、雷達信號乃至社交媒體上的零碎信息,整合為指揮官能一眼看懂的戰略情報。

例如,當衛星捕捉到一輛車移動,Ontology能夠識別並提取車的位置、速度、方向等信息,並根據其歷史軌跡了解這輛車的位置是否發生變化、與已知的武裝組織成員的車輛匹配(從情報數據庫),並在車輛出現可疑行動時發出警報。MSS(執行層)則進一步打通這些資訊,建立一個完整的戰場圖像,由指揮官進行戰場管理。

在一名烏克蘭工程師的操作介面上,只需輕點幾次鼠標,龐大的熱成像數據與雷達影像就能構建出一個同步的戰場全局畫面。去年與Palantir簽約的北約甚至形容,這套系統創造了一個「電子遊戲式」的平台,讓人類指揮官來監督戰鬥。

圖為2022年,烏克蘭總統澤連斯基與Palantir CEO Alex Karp會面。(烏克蘭信息部)

《時代周刊》曾報道,這種技術於2022年的烏克蘭戰場已初露鋒芒。Palantir於2022年夏天首次與烏克蘭政府合作,後者最後同意使用Palantir開發的工具,利用商業數據提供幾乎實時的戰場圖像,將其與機密政府數據(包括來自盟友國的數據)集成,識別打擊目標,再對這些目標(可能包括能源設施、導彈基地、指揮中心等)的軍事價值等進行自動排序。

MSS在俄烏戰場上的出色發揮,推動北約與Palantir簽署合約,也在美軍內部進一步推廣應用。

數碼「殺戮鏈」:從數周縮短至12小時

而當Claude的推理能力與Palantir的執行力結合,Palantir行政總裁 Alex Karp口中的「數碼殺戮鏈」正式閉環。

曾經需要數周策劃的行動,現在被壓縮到了極限。在這次行動中,美以聯軍在短短12小時內對伊朗目標發動了近900次空襲,並精確清除了包括最高領袖哈梅內伊在內的40多名核心領導層。

速度的改變是顛覆性的。「在某些方面,AI機器給出目標建議的速度,實際上比人類思考快得多」——殺戮鏈專家Craig Jones指出:「你擁有了規模與速度的雙重效益——一邊執行暗殺,一邊在空中通過彈道導彈摧毀政權的反應能力。在歷史上的戰爭中,這可能需要幾天甚至幾周。現在這一切都一次性就完成。」

如此規模和速度效益幾乎讓這些AI系統將成為未來戰爭不可分割的一部分,甚至可能成為軍火等戰場上的硬件以外、決定作戰成敗的關鍵要素。任何一個國家的軍事實力,都會建基於算法上。

算法黑盒背後隱憂……

然而,正如眼下許多其他AI技術領域一樣,技術上的飛躍令人們為之振奮,急不可待的將它們部署到現實場景中,卻也幾乎肯定伴隨着道德上的失重。美以對伊朗的軍事行動或許是人類歷史上首次大規模作戰中的AI深度融合。讓我們看到未來戰爭的可能性的同時,也揭開其抹去人性的殘酷。

2026年2月16日,伊斯蘭革命衛隊(IRGC)成員參加在伊朗南部的演習。(Reuters)

據伊朗媒體報導,此次襲擊波及了南部一座軍營附近的學校,死亡人數已攀升至165人。我們尚無法斷定這起慘劇是否源於AI的誤判,但在加沙戰場上,以色列軍方使用的AI導致平民傷亡的案例已多次敲響警鐘。

最令人不安的是:在現行的國際法中,「AI參與下的問責機制」依舊是空白。當算法決定了打擊目標,而人類只需點擊「確定」時,責任的主體變得模糊不清。可以預見的是,在這些問題得到解決之前,各國將會在知曉這種連帶損害的情況下繼續使用AI進行戰略決策。而最後要為死傷負責的,顯然是人類,而不是人工智能。