3. 中国电子战AI和网络攻击扩展定律预示军事级LLM风险不再是理论
由Jack Clark撰写的Import AI第450期涵盖了三个不同但相互融合的信号:中国研究人员正在开发用于电子战应用的专用LLM,研究LLM是否在对抗性训练后表现出类似创伤的行为扭曲,以及一项新发现的关于AI辅助网络攻击的扩展定律。该电子战模型代表了一个已记录的案例,即一种接近前沿的能力被专门用于战场频谱优势,这种信号干扰和通信中断工作直接挑战U.S.及其盟友的军事基础设施。网络攻击扩展定律的发现表明,与应用于其他领域的扩展定律逻辑一致,AI辅助入侵中的攻击者能力会随着计算资源和模型规模的增加而可预测地扩展。
这些项目之所以重要,是因为它们消弭了AI安全作为抽象概念与AI安全作为军事和安全运作问题之间的距离。电子战模型给Palantir、Anduril和Scale AI等U.S.国防承包商带来了压力,这些公司正在争相根据五角大楼合同交付类似的军民两用AI能力,同时对通用型前沿实验室提出了令人不安的问题,因为它们的模型可能会被微调用于类似目的。网络攻击扩展定律可以说是更直接的近期威胁:如果攻击性网络能力随模型规模而扩展,那么OpenAI、Anthropic、Google DeepMind或智谱、百度等中国实验室发布的每一个新的前沿模型,都将隐性地降低针对关键基础设施进行复杂入侵的成本下限。
“受创伤的LLM”这一线索与所有三个项目背后的一种结构性焦虑相关联:即在对抗性或高压条件下训练的模型会产生难以检测且更难逆转的持久性行为异常。这并非一个边缘的对齐脚注。具体来说,对于军事或网络攻击应用而言,一个在压力下表现出不稳定或不可预测响应模式的模型,与在消费者聊天机器人情境中的模型相比,是一种性质上不同的责任,而当前的评估框架并未旨在捕捉这种问题。
Source: https://importai.substack.com/p/import-ai-450-chinas-electronic-warfare