智能体工程反模式:别把未审代码推给同事

深度Simon Willison2026年3月16日2 分钟阅读
智能体工程时代,提交未经自己审核的代码是常见且令人沮丧的反模式。作者强调,如果你用 AI 生成代码却不做审查,等于把工作甩给别人。

在智能体工程(Agentic Engineering)这个新领域,有些行为属于反模式,最好避免。

把未审核的代码丢给同事

这个反模式很常见,也特别让人头疼。

别提交你自己都没看过的代码。

如果你开一个 PR,里面是智能体生成的几百甚至几千行代码,而你自己没花功夫确保这些代码能跑,那你就是把实际工作推给了别人。

他们自己也能让智能体写代码。你提供了什么价值?

提交代码让人评审,你得有信心这代码值得别人花时间。初次审核是你的责任,不该外包给别人。

一个好的智能体工程 PR 应该具备以下特点:

  • 代码能跑,而且你确信它能跑。你的工作是交付能工作的代码
  • 改动足够小,方便评审,不会给 reviewer 增加太多认知负担。几个小 PR 比一个大 PR 好,用智能体帮你处理 Git 操作,拆分代码到不同提交很容易。
  • PR 包含额外上下文,帮助解释改动。这个改动服务于什么更高层次的目标?链接到相关 issue 或规格说明很有用。
  • 智能体写的 PR 描述看起来很有说服力。这些你也得审!指望别人读你自己都没读、没验证过的文字,很不礼貌。

考虑到把未审核代码丢给别人太容易了,我建议你提供一些证据,证明自己额外花了功夫。手动测试的笔记、对具体实现选择的注释,甚至是功能正常运行的截图或视频,都能大大表明 reviewer 的时间不会浪费在深挖细节上。

本文编译自 Anti-patterns: things to avoid - Agentic Engineering Patterns,版权归原作者所有。

觉得有用?分享给更多人

获取每周 AI 工具精选

工具推荐、实战教程和生态洞察,每周更新。

相关文章

Simon Willison 正在重构 LLM Python 库的抽象层,以支持服务器端工具执行等新功能。他利用 Claude Code 分析了四大 LLM 提供商的客户端库,生成了用于测试的 curl 命令和 JSON 输出。这些调研材料已开源,旨在帮助设计更通用的 API 抽象。

深度Simon Willison·4月5日·1 分钟

智能体技能——包含程序性知识和可执行资源的结构化包,供智能体在推理时动态加载——已成为增强 LLM 智能体的可靠机制。然而,推理时技能增强存在根本性限制:检索噪声引入无关指导,注入的技能内容带来大量 token 开销,而模型从未真正习得它所遵循的知识。我们提出一个问题:技能是否可以被内化到模型参数中,使其在无需任何运行时技能检索的情况下实现零样本自主行为?我们提出 Skill0,一个专为技能内化设计的上下文强化学习框架。Skill0 引入了一种训练时课程,从提供完整技能上下文开始,逐步撤除。技能按类别离线分组,并与交互历史一起渲染为紧凑的视觉上下文,教授模型工具调用和多轮任务完成。动态课程机制…

深度·4月5日·17 分钟

评论