Anthropic拒讓美軍無條件使用AI 涉監控及自主武器倫理紅線
撰文:韓學敏
出版:更新:
美國人工智能公司Anthropic(Claude聊天機器人開發商)2月26日公開表示拒絕國防部五角大樓要求其無條件開放AI技術用於軍事用途的最後通牒,表明不會接受用於大規模國內監控或全自主致命武器的要求。
Anthropic行政總裁阿莫迪(Dario Amodei)聲明指出,公司無法「違背良心」同意美軍無條件使用其技術,並劃出兩條倫理紅線:一是大規模國內監控「與民主價值觀不相容」,二是現有AI系統尚不可靠,不應授權用於無人最終控制的致命武器。
他強調,Anthropic雖已為五角大樓及情報機構提供防禦性技術,但「不會明知故犯地提供危及美軍與平民的產品」。
五角大樓此前要求Anthropic同意無限制地將其技術用於軍事用途,否則將動用《國防生產法》強制其配合,並可能將該公司列為「供應鏈風險企業」。國防部官員辯稱,合法性屬最終用戶責任,部門「僅下達合法命令」。