AI 写基础设施代码,为何团队不敢用

深度The New Stack2026年3月20日3 分钟阅读
AI 写基础设施代码,为何团队不敢用
Spacelift 联合创始人 Marcin Wyszynski 指出,AI 生成的基础设施代码带来了新的理解鸿沟,就像拿着葡萄牙语短语手册却听不懂当地人回答。他分享了如何通过安全护栏(Guardrails)和 Spacelift Intent 产品来平衡速度与控制。

在本期《The New Stack Agents》中,我采访了 Spacelift 的技术联合创始人兼 OpenTofu 的联合创始人 Marcin Wyszynski,探讨 AI 如何重塑基础设施即代码(IaC)。

Wyszynski 曾在 Google 和 Facebook 担任 SRE,他创建 Spacelift 是因为像 Terraform 这样的 IaC 工具对个人开发者很友好,但团队协作时就容易出问题。2023 年 HashiCorp 更改 Terraform 许可证后,他共同创立了 Linux 基金会支持的 OpenTofu 分支。

但现在,Wyszynski 更关注的是在 AI 工具快速发展的时代,IaC 和平台工程的未来。

传统上,IaC 工具假设写代码的人理解代码的作用,但这一点正在改变。

葡萄牙语短语手册的困境

在最近的客户调研中,Wyszynski 听到的信息很一致:没人再手动写 HCL(HashiCorp 配置语言,Terraform 和 OpenTofu 的核心)了。AI 编码工具现在处理这些,基础设施配置的学习曲线已经消失。

但有个问题,Wyszynski 用故事来说明:去葡萄牙度假前买了一本葡萄牙语短语手册。拿着手册,你可以用完美的葡萄牙语向当地人提问。问题是,当地人会用同样完美的葡萄牙语回答。

“他理解我们的问题,但我们无法理解他的答案,” Wyszynski 说。

对于基础设施,这种理解鸿沟很危险。糟糕的应用部署通常可以回滚,但糟糕的基础设施变更可能摧毁生产数据库。然而,随着软件开发加速,客户正积极推动基础设施供应的民主化访问。数据科学家不应该提交 Jira 工单,然后等两周让 DevOps 团队启动他们需要的服务器。

“愚蠢”与“仪式化”之间的微妙界限

在 AI 出现之前,基础设施团队有两种选择,Wyszynski 说。一种他称之为“愚蠢”:在云控制台中点击操作,没有记录。另一种是完整的 IaC “仪式”:写代码、开 PR、接受审查、通过策略检查、部署。这需要时间,成本高。

“如果只能在愚蠢和仪式化之间选择,如果你只有锤子,一切看起来都是仪式化问题,” Wyszynski 说。结果,基础设施团队现在比应用团队慢得多,造成了积压。

Spacelift 的解决方案是名为 Intent 的产品。它不让 LLM 写配置代码然后走标准流水线,而是让 LLM 直接查询云提供商模式,近乎实时地创建、更新或删除资源。当资源需要进入生产环境时,一键生成完整的 IaC 代码。

关键是,这里的护栏是确定性的——不仅仅是其他 LLM 调用。Spacelift 注入 Open Policy Agent 策略作为中间件,监控 LLM 可以配置什么。在此基础上是 Spacelift Intelligence(今年三月推出),这是一个上下文层,让 LLM 了解组织的现有项目、可重用模块和强制执行策略。

平衡速度与控制

Wyszynski 说,每个平台团队现在都在纠结的核心问题是如何平衡速度与控制。有些客户希望工程师在一次性 AWS 账户中自由实验,然后将结果导入 Terraform 用于生产。另一些客户希望每个变更都通过代码审查。他认为两者都有效,都是对同一底层紧张关系的回应。

Spacelift 自己也在用自家产品,Wyszynski 说。公司团队用 OpenTofu 定义基础设施,但用 AWS CloudFormation 部署应用,因为如果容器开始崩溃,CloudFormation 可以原子性地回滚部署。

Wyszynski 认为这种务实态度很重要,尤其是在信任 LLM 处理生产基础设施时。企业的反对意见总是 LLM 不是确定性的,所以不能信任。

“人类也不是确定性的,”他说。我们为人类建立护栏几十年了,同样的逻辑适用于 LLM。“我们已经习惯人类需要护栏。为 LLM 建立护栏在概念上没什么新鲜的。”

觉得有用?分享给更多人

获取每周 AI 工具精选

工具推荐、实战教程和生态洞察,每周更新。

相关文章

Simon Willison 正在重构 LLM Python 库的抽象层,以支持服务器端工具执行等新功能。他利用 Claude Code 分析了四大 LLM 提供商的客户端库,生成了用于测试的 curl 命令和 JSON 输出。这些调研材料已开源,旨在帮助设计更通用的 API 抽象。

深度Simon Willison·4月5日·1 分钟

智能体技能——包含程序性知识和可执行资源的结构化包,供智能体在推理时动态加载——已成为增强 LLM 智能体的可靠机制。然而,推理时技能增强存在根本性限制:检索噪声引入无关指导,注入的技能内容带来大量 token 开销,而模型从未真正习得它所遵循的知识。我们提出一个问题:技能是否可以被内化到模型参数中,使其在无需任何运行时技能检索的情况下实现零样本自主行为?我们提出 Skill0,一个专为技能内化设计的上下文强化学习框架。Skill0 引入了一种训练时课程,从提供完整技能上下文开始,逐步撤除。技能按类别离线分组,并与交互历史一起渲染为紧凑的视觉上下文,教授模型工具调用和多轮任务完成。动态课程机制…

深度·4月5日·17 分钟

评论