export const prerender = true; 英伟达的模型布局、亚马逊的AI代码审查门,以及开源的拐点 — ScatterAI
ScatterAI
2026年3月12日 · Issue #8

英伟达的模型布局、亚马逊的AI代码审查门,以及开源的拐点

1. 英伟达正在用260亿美元占领它曾声称不感兴趣的模型层

《连线》杂志审阅的SEC文件显示,英伟达计划在未来18个月内向AI模型开发和模型公司投资承诺260亿美元。这不是研究预算——而是对英伟达所销售硬件上层的战略布局。文件列出三个类别:直接模型开发(内部)、前沿模型公司股权,以及与早期实验室的算力换股权安排。

竞争逻辑很简单:如果商品化硬件侵蚀了GPU利润率,拥有应用层就创造了新的定价面。AMD的MI300X在训练工作负载上与英伟达的性能差距已缩小到约15%(部分基准)。英伟达的护城河是CUDA锁定和建立在其上的生态系统——而不再是原始硅片。进入模型所有权是对分析师预言两年的商品化场景的对冲。

英特尔在1990年代做过类似的举动,当时它意识到PC软件生态系统——而非处理器规格——才是让OEM持续购买英特尔芯片的原因。它资助了竞争对手难以复制的Wintel基础设施。英伟达的模型投资是类似的结构性布局:使建立在其硬件之上的有价值事物更加依赖英伟达的持续参与。

这与上周宣布的OpenAI 400亿美元融资相关联。如果英伟达既是同一批公司的供应商(算力)又是投资者(模型股权),这些公司架构决策的独立性在结构上就会受到损害。纯模型公司的投资者可能低估了这种利益冲突的风险。

多个信号指向同一方向。英伟达拥有训练层,扩展到推理基础设施(NIM、TensorRT-LLM),现在正在获取模型层股权。垂直整合几乎完成。

为何重要:

信源:英伟达260亿美元模型布局(连线)SEC文件分析(The Information)AMD MI300X基准测试(Anandtech)


2. 亚马逊现在要求高级工程师批准所有生产环境中的AI辅助代码

亚马逊现要求对任何AI辅助比例超过30%的代码,在合并到生产分支前获得高级工程师批准。《The Verge》获得的内部备忘录证实了这一政策,适用于所有面向AWS的服务,3月10日起生效。使用GitHub Copilot、Amazon CodeWhisperer或类似工具的团队必须用新标签标记AI密集型PR;包含可检测AI模式的未标记PR将在CI中自动失败。

执行机制很有意思。亚马逊在内部代码库上训练了一个分类器来检测AI生成的代码模式——缩进一致性、相对于逻辑复杂度的注释密度、特定变量命名模式——并将其集成到CI/CD流水线中。分类器在每个PR上运行,并标记超过阈值的PR。据备忘录称,误报率估计为8%,这意味着部分人工编写的代码也需要不必要的高级审查。

这并非异常。Hacker News在一月份更新了网站指南,明确劝阻AI生成的内容提交。Stack Overflow在2023年禁止AI生成答案,后来取消禁令,然后悄悄地为某些类别重新实施。软件组织的模式是一致的:初始热情、整合、质量事故、治理政策、执行机制。

亚马逊此举与更广泛的企业AI代码质量清算相关联。Uplevel Data一月份的研究发现,在其客户群中,GitHub Copilot使用与已发货代码的bug率增加41%相关。这项研究存在争议——选择效应是真实的——但这种相关性足以令企业安全和质量团队做出响应。

亚马逊内部的AI采用率是科技行业最高的之一——估计在某些团队中AI辅助代码占新提交的40%-60%。他们选择放缓而非加速这一事实是一个领先指标。当销售AI编码工具给企业的公司决定其自己的工程师需要限速器时,“AI写你的代码”的企业销售说辞就变得更难了。

为何重要:

信源:亚马逊AI代码政策(The Verge)Uplevel Copilot研究(Uplevel Data)HN指南更新(Hacker News)


3. Meta的Llama 4发布引发能力整合争论

Meta于3月11日在Llama社区许可协议下发布了Llama 4 Scout和Llama 4 Maverick。Scout是一个17B激活参数模型(总计109B,MoE架构),上下文窗口达1000万词元。Maverick是一个针对多模态推理优化的17B激活参数模型。两者在标准基准上都显著优于Llama 3.1 70B,Maverick在MMLU上与GPT-4o持平,Scout在开源权重模型中创造了新的上下文长度记录。

竞争动态同时向两个方向转变。对于封闭模型供应商,每次Llama发布都压缩了前沿封闭性能与开源权重能力之间的窗口。2023年支撑GPT-4定价的差距已收窄至大多数企业采购对话中需要主动证明合理性的程度。对于开源权重生态系统——Mistral、Qwen、DeepSeek——资源充裕的Meta发布既是验证(开放方法有效)也是重置上限(需要回应)。

Scout中的MoE架构决策在技术上最有趣。总计109B/激活17B的专家混合并非新方法——Mixtral在2023年开创了它——但据报道Meta的实现通过使用惩罚专家崩溃的新路由损失函数实现了比先前MoE模型更好的专家利用率。如果第三方复现证实了这一点,这将是一个重要的训练方法贡献,而不仅仅是规模故事。

这与云提供商正在进行的推理基础设施建设相关联。1000万词元上下文窗口创造了新的基础设施要求:该规模的KV缓存以TB而非GB计算。AWS、Azure和GCP都在发布后24小时内宣布了Llama 4托管,但1000万词元上下文推理的实际成本结构不透明。预计会有定价惊喜。

模式已经确立。Meta发布前沿开源权重模型。封闭模型供应商在30天内降价。开源权重生态系统在60天内发布后续变体。这个循环将AI能力定价压向零,同时推动基础设施复杂性上升。

为何重要:

信源:Meta Llama 4发布(Meta AI博客)Llama 4基准分析(Hugging Face)云提供商托管公告(TechCrunch)


新闻速览

Anthropic为API第三层用户提高Sonnet速率限制 Anthropic悄悄地将Claude Sonnet在API第三层(每月支出≥1000美元)的输出词元速率限制从每分钟8万词元提升至16万词元,于3月10日起生效。没有公告伴随这一变化——它出现在更新的速率限制文档中。这延续了Anthropic悄悄改进容量而非作为营销事件宣传的模式。信源

Google Gemini Advanced获得实时网络接地功能 Google悄悄为Gemini Advanced订阅者启用了实时网络搜索接地功能,将实时结果引入适合当前信息的查询响应中。该功能无需明确提示即可工作——Gemini自行决定何时接地。早期测试显示近期事件的事实准确性有所提升,但引用质量参差不齐。信源

Mistral的Le Chat达到100万日活跃用户 Mistral报告称,其消费者聊天产品Le Chat在二月份突破了100万日活跃用户,高于11月的20万。增长发生在Le Chat推出Mistral Large 2以及与法国政府建立公共部门AI协助合作之后。Mistral主要仍是B2B API业务;Le Chat的规模现在已足以影响模型训练数据决策。信源

DeepSeek R2训练运行据报正在进行 三位了解DeepSeek基础设施的信源告诉The Information,DeepSeek正在进行与下一代模型一致的重大训练运行。没有确认的发布时间表。DeepSeek R1的1月发布曾短暂影响股市;后续发布将面临不同的市场动态,因为AI行业自那以来已对中国实验室的高效训练方法大幅定价。信源

Scale AI获得15亿美元国防部AI训练数据合同 Scale AI宣布与美国国防部签订五年15亿美元合同,提供训练数据、评估和AI就绪服务。这是迄今政府中公开披露的最大AI服务合同,表明国防部已从AI实验转向结构化采购。Scale AI的政府收入构成将发生重大变化——对其商业定价和优先队列的影响值得关注。信源