S
SkillNav

OpenAI完成1100亿美元融资:亚马逊、NVIDIA与软银入局,估值达8400亿美元创纪录

资讯2026-02-28T05:01:13+00:0012 分钟阅读
OpenAI完成1100亿美元融资:亚马逊、NVIDIA与软银入局,估值达8400亿美元创纪录

Title: [AINews] OpenAI以8400亿美元投后估值完成史上最大创业融资,获亚马逊、NVIDIA、软银1100亿美元注资

Summary: 恭喜,你拿下了最大的数字。

Content:

2026/2/26-2026/2/27 的 AI 新闻。我们为你检查了 12 个 subreddit、544 个 Twitter 和 24 个 Discord(263 个频道、12529 条消息)。按 200wpm 估算,节省阅读时间 1189 分钟。AINews 网站可检索所有往期内容。提醒一下,AINews 现已成为 Latent Space 的一个栏目。你也可以随时订阅/退订不同邮件频率!

在与“战争部”(Department of War)相关的持续博弈背景下(Anthropic 拒绝条款 vs OpenAI 达成合作),OpenAI 终于官宣完成这轮从去年12月起就备受争议的超级融资。公告中披露了几项值得关注的新数据:

[

](https://substackcdn.com/image/fetch/$s_!fhcB!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F5dd10ca4-c51f-4905-acbf-c1bc803b5ca7_890x600.png)

以上数据支撑了这笔 按7300亿美元投前估值完成的1100亿美元新融资

  • 软银出资300亿美元(“推进我们自己的 ASI 战略”);

  • NVIDIA 出资300亿美元(包括 3GW 专用推理算力和 Vera Rubin 系统上的 2GW 训练算力)——低于此前“最高1000亿美元”传闻,但仍存在循环出资疑虑

  • 亚马逊出资500亿美元,并扩大合作关系分析),包括:

    • 先期投资150亿美元,并在未来数月达成条件后再投入350亿美元——这也让亚马逊在 OpenAI 与 Anthropic 双方都持有较大股份

    • 在 Amazon Bedrock 上提供由 OpenAI 支持的“Stateful Runtime Environment”

    • AWS 将成为 OpenAI Frontier 的独家第三方云提供商

    • 通过 AWS 基础设施获得 2GW 的 Trainium 算力,号称“8年1000亿美元”,覆盖 Trainium3 与下一代 Trainium4 芯片

密切关注者会注意到,微软并未出现在本轮融资中;其与 OpenAI 的关系仍延续现有收缩后的合作模式,并获得无状态 API。

作为对比,全球有 118 个国家/经济体名义 GDP 低于1000亿美元——约占世界经济体总数的61%。连续出现“史上最大融资”,数字已经大到超出直觉,这里给一张配得上 wtfhappened2025.com 的图:

[

Image

](https://substackcdn.com/image/fetch/$s_!ax2C!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F89dd9766-2fb1-4d42-86f2-6afd1fdfa06d_1206x1401.webp)

以及 AI 之外过去10年的融资历史:

[

](https://substackcdn.com/image/fetch/$s_!YaNo!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff262d5b1-7a48-45f4-ae8c-b2646931577f_2910x514.png)

以及由 OpenAI Deep Research + ChatGPT Canvas 生成、按融资额降序排列的版本:

[

](https://substackcdn.com/image/fetch/$s_!Xhe0!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F5e25815d-e755-44e5-b77b-81fb495c7821_2564x2006.png)

或时间线视角:

[

](https://substackcdn.com/image/fetch/$s_!Iqub!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F93ed2a68-ee2f-4599-b965-d993d697115b_2590x2038.png)

用于即时 LoRA“编译”的超网络:Doc-to-LoRA + Text-to-LoRA

  • Doc-to-LoRA / Text-to-LoRA(Sakana AI):Sakana 提出两种相关方法,通过训练 hypernetwork 在单次前向中生成 LoRA adapter,从而摊薄定制化成本,把原本需要微调/蒸馏/长上下文提示的过程变成“即时权重更新”。核心主张是:无需把所有信息都放在昂贵的活跃上下文窗口中,而是把任务描述或长文档编译成 adapter 权重,做到亚秒级延迟,实现快速适配与类似“持久记忆”的行为(SakanaAILabs, hardmaru)。

    • Text-to-LoRA:仅根据自然语言描述即可泛化到未见任务SakanaAILabs)。

    • Doc-to-LoRA:将事实性文档内化;在 needle-in-a-haystack 测试中,据称在约为基础模型上下文窗口5倍的序列上仍接近满分;还展示了跨模态技巧:把 VLM 的视觉信息通过内化权重迁移到纯文本模型中(SakanaAILabs;综述线程 omarsar0)。

    • 与长上下文方案的定位差异:明确将其定位为降低二次方 attention 成本、避免每次调用都重复读取长文档——即把知识存进 adapter,而不是 token(omarsar0)。

  • 署名与先行工作争议:有研究者称,后续相似工作未充分致谢 Hypersteer(即通过 hypernetwork 从文本描述生成 steering vectors)(aryaman2020)。社区层面也出现广泛兴奋反应,“hypernetwork 回来了”(willdepue, zhansheng)。

  • 被提出的开放问题:为何不直接用超长 KV cache 的 attention?也就是说,Doc-to-LoRA 的核心价值是否主要在效率/服务成本?(hyhieu226

OpenAI 融资 + 部署透明度工具

  • 1100亿美元融资:OpenAI 宣布完成 1100亿美元 融资,资方包括 Amazon、NVIDIA、SoftBank,并将其定义为扩展基础设施“让 AI 惠及所有人”(OpenAI, sama)。Epoch AI 的另一条说明给出规模参照:该轮融资几乎将 OpenAI 历史累计融资拉升至三倍;The Information 据称预计其到 2028 年累计现金消耗达 1570亿美元,而本轮资金加现有现金大致与该预测匹配(EpochAIResearch)。

  • Deployment Safety Hub:OpenAI 上线可检索站点,用于浏览“system cards”(此前多为 PDF),让部署安全文档更易访问(dgrobinson)。

美国国防部(“战争部”)与 Anthropic 争议:供应链定性、反弹与行业影响

  • Anthropic 划出红线,科技圈强烈回应:争议焦点在于 Anthropic 公开拒绝支持大规模国内监控全自主武器(按转述者对声明的解读),由此获得罕见的跨竞争对手赞许,也让前沿模型部署中的“红线”议题进一步升温(mmitchell_ai, ilyasut)。

  • “定性冲击”与法律边界争论:社交平台流传“战争部”拟将 Anthropic 定性为**‘国家安全供应链风险’并向承包商/合作方施压,引发对合法性、先例与寒蝉效应的争辩(kimmonismus, deanwball)。一项法律澄清认为:DoD 可以限制承包商在DoD 合同工作**中的行为,但很可能无权禁止其在私人/商业业务中使用 Anthropic(petereharrell)。

  • 经济与战略后果框架:最严厉的批评称,此举将损害美国作为商业伙伴的信誉,并可能迫使 hyperscaler 与投资方面临不可调和的抉择(deanwball);也有人表示在完整细节未明前仍需观望,但依旧认为“供应链风险”定性并不贴切(jachiam0)。

  • 公众情绪显著升温:多条帖子强调公众对“DoD 支持国内监控计划并惩罚拒绝者”的强烈愤怒(quantian1, janleike)。不少用户表示会“用订阅支持”Claude(willdepue, Yuchenj_UW)。

  • Anthropic 官方回应与诉讼意向:Anthropic 发布正式声明回应 Hegseth 部长相关表态(AnthropicAI)。评论特别关注“将在法庭上挑战任何供应链风险定性”这句话,并强调争议核心之一是:DoD 合同范围外客户是否应被限制(iScienceLuvr)。

  • 更高层面的议题:无论立场如何,许多观点都将此视作一次治理先例时刻:谁来决定可接受用途、程序正义如何保障、合同体系如何应对模型能力快速迭代(kipperrii)。

模型与榜单:Qwen3.5 扩展与“开源模型”排名

  • Qwen3.5 新发布(Artificial Analysis 汇总):阿里巴巴扩展 Qwen3.5 系列,新增 27B dense122B A10B MoE35B A3B MoE,均为 Apache 2.0262K context(帖子称可通过 YaRN 扩展至 1M)。Artificial Analysis 给出的 Intelligence Index 分数为:27B = 42122B A10B = 4235B A3B = 37,并列出 agent/task 指标(如 27B 的 GDPval-AA 1205)及权衡细节(幻觉率/准确率、token 消耗——27B 跑完整个指数用了 9800万输出 token)(ArtificialAnlys)。

  • Arena 榜单(2026年2月):Arena 发布文本与代码的 Top Open Models。文本榜前三:GLM-5 (1455)Qwen-3.5 397B A17B (1454)Kimi-K2.5 Thinking (1452)arena)。Code Arena 榜首为 GLM-5 (1451),Kimi-K2.5 与 MiniMax-M2.5 并列第二(arena)。Arena 同时强调其开源可复现榜单工具包 Arena-Rankarena)。

  • Perplexity 开源双向 embedding 模型(未获一手发布佐证):有帖子称 Perplexity 开源了双向“Qwen3-retrained” embedding 模型(0.6B/4B;标准版与上下文感知版;MIT 许可),用于提升检索中的文档级理解;该信息应视为第三方总结而非官方首发说明(LiorOnAI)。

系统、推理、内核与 RL 训练:带宽、ROCm 与离策略 RL

  • vLLM 在 ROCm 上的 attention 后端(AMD):vLLM 宣布为 ROCm 提供 7 种 attention backend,配合 KV-cache 布局调整、批处理技巧与模型特化内核;据称在 AMD GPU 上 decode 吞吐最高提升 4.4×,可通过环境变量切换(VLLM_ROCM_USE_AITER=1)(vllm_project)。后续还披露 MLA KV 压缩相关数据(例如 ~8K → 576 维)以及在 MI300X/MI32 上的吞吐提升。

[... content truncated ...]

原文链接:https://www.latent.space/p/ainews-openai-closes-110b-raise-from

相关文章

AINews:Harness Engineering 到底是不是一门真学问?
深度·3月5日
AINews:Harness Engineering 到底是不是一门真学问?

这篇文章围绕 AI 工程中的核心争议展开:系统能力究竟主要来自更强的模型(Big Model),还是来自更强的编排层(Big Harness)。文中汇总了 OpenAI、Anthropic、Scale AI、METR 等多方观点与数据,显示两派在“模型进步会不会吞噬 Harness 价值”上分歧明显。作者最终认为,随着 Agent 产品落地加速,Harness Engineering 的独立价值正在被市场和社区进一步确认。

10 分钟
每个 Agent 都需要一个 Box:Aaron Levie 谈 AI 时代的新基础设施
深度·3月5日
每个 Agent 都需要一个 Box:Aaron Levie 谈 AI 时代的新基础设施

在围绕“AI 是否正在杀死 SaaS”的争论中,Box CEO Aaron Levie 提出相反观点:企业内容与文件系统在 Agent 时代反而更关键。随着 Filesystem、Sandbox 和 Agent 工作流快速普及,核心问题从“让 Agent 能做事”转向“如何治理 Agent 的身份、权限与安全边界”。他认为,未来企业将拥有远多于人的 Agent 数量,而真正的竞争力在于率先完成面向 Agent 的组织与基础设施改造。

8 分钟