Vultr 用 Nvidia GPU 和 AI 智能体降本 90%

Vultr 正在使用 Nvidia GPU 和 OpenClaw 等 AI 智能体来自动化开发者的基础设施设置——并声称其成本比主要超大规模云厂商的同类产品低 50% 到 90%。该平台专为内部开发者门户(IDP)构建,让平台工程团队能基于自身的安全策略、网络规则和合规要求训练 AI,然后将其暴露为一组预配置选项库,供开发者一键部署。
在 KubeCon+CloudNativeCon Europe 上,Vultr 首席营销官 Kevin Cochrane(拥有超过二十年的深厚技术背景)将 Nvidia 描述为 Vultr 所提供服务的“燃料”或“电力”。
“我们想帮助平台工程师造一辆他妈的宝马,这样当他们开上高速公路时,实际上是在开 autobahn(德国不限速高速),时速能达到 240 公里。”
“你将会消耗我们提供的燃料或电力,”Cochrane 补充道。
更便宜的计算,自动化的设置
借助 Nvidia 的资源,Vultr 表示可以提供成本更低的体验,其计算方面的“燃料”或“电力”价格更便宜,而这通常是组织难以承受的高昂成本。
“挑战在于,如果你有一辆宝马,并且想开得很快,否则你将在计算上投入大量资金,”Cochrane 补充说。
Vultr 创建了这个替代方案,让平台工程团队鱼与熊掌兼得:高性能、AI 集成的模板,用于以极具竞争力的成本创建和管理内部开发者门户。据 Vultr 称,这些成本节省既适用于这项新功能,也适用于其现有产品。
技能文件取代手动脚本
在这种新的 AI 基础设施方法中,平台工程师的角色从手动设置转向高层架构设计。他们不再手动编写每个脚本,而是专注于构建核心技能,Cochrane 告诉 The New Stack。这些技能本质上是“技能文件”,AI 智能体(如 OpenClaw)使用它们来执行特定的操作任务。
为了创建这些,平台工程师开发一个工件库作为训练集。这些工件代表了一套“已知的良好原则”,已经过“预烘焙”并“得到技术团队所有人的认可”,Cochrane 说。
例如,网络工程团队可能会创建一个网络技能文件。这个文件告诉 AI 如何“创建 VPC”,在特定城市之间建立“直连”,并设置“故障转移”区域,Cochrane 解释道。
一旦这些技能通过开发者门户暴露出来,下游开发者就可以部署应用程序,而无需担心“网络”、“数据中心位置”或“附加存储”,Cochrane 说。
由于平台是“100% API 驱动”的,AI 智能体只需使用这些技能文件来自动化整个配置,Cochrane 表示。这确保了数据隐私和安全策略等复杂要求得到自动处理,防止开发者“搞砸”。
最终,所有基础设施复杂性都“被完全抽象掉”,因此开发者可以只专注于应用程序本身,Cochrane 说。
Nvidia 技术栈赋能 Vultr
Cochrane 描述了 Vultr 所编排的 Nvidia 技术栈的三个组成部分:
- Nvidia Dynamo:一个用于基础设施管理的“AI 操作系统”,适用于 Kubernetes 的有状态和无状态工作负载。
- Nvidia Vera Rubin 平台:一个集成了 GPU、CPU、网络和存储的系统,旨在推动“代币经济学的效率边界”。
- 智能体 AI 与 NemoClaw:强调开源技术栈(包括 OpenClaw/NemoClaw),通过更高层次的“技能”和抽象为自主智能体提供安全基础。
开发者点击,而非配置
一旦平台工程团队设置好 IDP,开发者就可以点击选择他们想要和需要的东西(并且无法访问可能损坏基础设施或无意中产生 5 万美元云账单的 AI 智能体)。开发者可以使用 IDP API 选择服务器,例如选择 Cloud GPU 或 Optimized Cloud,以及其位置,无论是在新泽西、伦敦还是东京。
通过点击 Nvidia NemoClaw 图标可以访问“市场”标签页。Vultr 系统自动化的其他配置选项包括服务器大小、Nvidia GPU 型号(如 H100 或 A100)、RAM 和月度价格。
“所有这些复杂性都应该由平台工程团队处理,其他一切都应该对开发者完全透明。他们不应该需要了解任何相关细节。”
“任何构建下游应用程序的开发者都可以使用像 OpenClaw 这样的工具,并利用那些技能……他们基本上就是让他们的‘爪子’设置好他们的流水线、模型、代码流水线,然后就可以开始了,”Cochrane 说。“所有这些复杂性都应该由平台工程团队处理,其他一切都应该对开发者完全透明。他们不应该需要了解任何相关细节。”
觉得有用?分享给更多人