ScatterAI
Issue #1 · 2026年3月14日

五角大楼证实 AI 聊天机器人将参与目标优先级排序,人类保留最终决定权

Industry

3. 五角大楼确认AI聊天机器人将排列击杀名单,人类拥有最终权限

美国国防部高级官员向MIT Technology Review披露,美国军方正在积极开发生成式AI系统,以生成优先级排序的目标列表和打击顺序建议,由人类操作员保留最终批准权。这一披露代表迄今为止最明确的公开证实,即采用与商用聊天机器人相同架构的大型语言模型式系统正被整合到致命决策流程中。已发布的报道中没有涉及具体的项目名称或预算数字,但其框架是运作性的,而非理论性的:这是正在建立的能力,而非理论化的能力。

这重新塑造的竞争动态既是国际性的,也是商业性的。中国人民解放军自2020年以来已发布了描述”智能化战争”的军事学说,五角大楼现在的公开承认消除了关于美国是在与之匹配还是落后的模糊之处。在商业方面,这一声明重新定义了基础模型提供商与国防承包商之间的隐含契约。Palantir已与陆军签订机密AI合同,最近赢得了其Maven Smart System 6.19亿美元的合同,是最直接的受益者。Anduril、Scale AI(拥有国防部数据标注合同)以及运营机密云区域的主要超大规模云提供商(AWS GovCloud、Microsoft Azure Government)都面临立即需要澄清其模型是否在该目标架构范围内的压力。

最接近的结构先例是1970年代和1980年代从人工绘制的炮兵火力任务向计算机辅助火力控制系统的过渡。FADAC系统及之后的AFATDS系统自动化了射击解的计算,同时保持人类的扣动扳机,这正是此处描述的人类在循环中的模型。该过渡产生的结果不是目标指示放缓,而是火力任务处理速度提高了大约十倍,这反过来又完全改变了战场节奏预期。教训是”人类在循环中”的措辞掩盖了真正的变量:决策周期压缩。当AI在几秒钟内生成排序列表,而分析人员需要数小时时,人类审查的实际权重会改变,即使正式权限没有改变。

这一披露直接连接到本周在整个行业中可见的更广泛的AI治理紧张模式。欧盟AI法案的禁用条款明确标记了实时生物识别和自主武器应用,而美国国防AI开发在该框架之外运作创造了监管套利,欧洲国防技术合作伙伴(MBDA、Leonardo、莱茵金属软件部门)将需要应对。它也连接到关于基础模型出口管制的持续辩论:如果商用LLM架构现在被承认为目标系统的基础,CISA和BIS一直在兜圈子的双重用途分类问题变得相当紧迫。

这里的结构飞轮运行通过数据优势。AI系统做出的每个目标指示建议,无论被人类审查者接受、修改或拒绝,都会生成标注的训练数据,说明军事操作员在实际作战条件下认为什么是有效的打击优先级。这一反馈循环,在数千次演习和最终实战部署中复合,建立了商业或对手行为者无法复制的数据集。模型在对军事来说最重要的决策分布上改进,这加深了持有训练流程的任何供应商的护城河,并创造了强大的机构锁定。飞轮是:部署生成反馈,反馈改进目标指示准确度,准确度提高增加操作员信任,信任增加扩展部署范围。

为什么这很重要:

来源:A defense official reveals how AI chatbots could be used for targeting decisions