S
SkillNav

Agent 框架还需要吗?LangChain谈2026年的演进与可观测性

深度LangChain2026-02-13T02:23:40+00:008 分钟阅读
Agent 框架还需要吗?LangChain谈2026年的演进与可观测性

每当 LLM 变得更强,同一个问题就会再次出现:“现在还需要 agent framework 吗?”这是个很合理的问题。随着模型性能提升和持续演进,构建 Agent 的最佳方式确实会变化;但从根本上说,Agent 是围绕模型构建的一整套系统,所以它们不会消失——只是也必须不断进化。到现在,我们已经做了三代 Agent 框架,而且每一代都和上一代明显不同。所以这是我们的判断:

  1. Agent 框架依然有价值,但前提是它们的演进速度要跟上模型。
  2. 无论你如何构建 Agent,Agent observability 都应该可用。这也是为什么即使你不用我们的开源框架(LangChain 或 LangGraph),LangSmith 也依然可用。

这篇文章就围绕这两点展开。

为什么到了 2026 年,Agent 框架仍然重要

Agent 的模式已经从 chaining,发展到 workflow orchestration,再到结合文件系统和 memory 的 tool-calling-in-a-loop。我们为这些模式都构建过框架,并且相信它们都各有适用场景。下面是这一路的演进:

Chaining

最初的 langchain 在 2023 年走红,是因为当时很少有人知道如何把 LLM 真正用到业务中。这个框架通过一组集成能力和核心抽象,提供了把基础模型连接到你的数据或 API 的便捷方式。坦率地说,它早期确实有些“强观点”——更像是一个学习 prompting 和 RAG 的“快捷按钮”,而不是开箱即用的生产级工具。随着那年夏天第一波生成式 AI 热潮开始降温,“Agent 框架没必要”的批评声也越来越大。

我们听到了这些批评,但它们和我们在真实使用中看到的情况并不一致。绝大多数在构建 LLM 应用的团队,都需要一种比“完全从零自己写”更快的方式。好的框架可以:

  • 把最佳实践沉淀进框架本身
  • 减少样板代码
  • 更容易把应用做到更高质量
  • 在大团队中建立标准与可读性
  • 提供更干净的生产落地路径

所以我们选择继续投入。只是这次是另一个框架。

Orchestration and run-time

langgraph 更底层、也更灵活。它包含一个支持 durability 和 statefulness 的 runtime,而这对 human-agent 和 agent-agent 协作被证明非常关键。它也回应了很多人此前对 langchain 在控制力上的担忧。我们后来确实在 2025 年重写了原始 langchain,让它更精简;但我们也意识到,不同问题需要不同工具。

Harness

更近一些,我们发布了 deepagents:一个 batteries-included 的 agent harness,性能更好、灵活性也更高。它支持长周期任务规划、tool-calling-in-a-loop、通过文件系统进行 context offloading,以及 subagent orchestration。之所以现在 agent harness 能发挥作用,是因为 LLM 的推理能力在持续增强,你可以把更多决策交给 LLM,而不是把各种 orchestration 模式硬编码进去。在概念上,它最接近 Claude Agent SDK,但它是 model-agnostic 的。据我们所知,这是目前唯一不绑定特定 LLM 或应用技术栈的 agent harness。

今天,我们会根据不同用例推荐不同框架。langchain 和 deepagents 都构建在 langgraph 的 runtime 之上,用于支持长时运行。

听起来有点夸张,但我们确实在三年里见证了三代 Agent:从 RAG 起步,到 agentic workflow,再演进到更自主的 tool-calling-in-a-loop Agent。

外界对框架最大的质疑是:AI 发展太快,根本来不及形成标准。这句话有其道理。但我们也相信,等行业“尘埃落定”再入场,是一种会输的策略。框架能帮助你更快下场、更快构建,并提高成功概率。即便如此,工具仍会持续变化。而且你也不需要在所有场景都上框架:如果只是一次简单的 LLM 请求,引入框架可能反而过重。

为什么 LangSmith 独立于 LangChain 开源框架

早期我们就意识到,质量 是 Agent 进入生产环境的最大障碍。我们当时认为(现在依然如此),专为 Agent 设计的 observability 和 evals 是工具链中的必需项。

我们把它命名为 LangSmith,因为我们直觉上就认为,未来不会只有一种 Agent 框架。即使真的出现主导框架,它也会以极快速度演进,快到早期版本都几乎“面目全非”。我们知道不会所有人都使用我们的框架,但仍希望他们能够使用这个平台。

因此,我们把 LangSmith 设计成:无论你用的是 langchain、我们其他框架,还是完全不用任何框架,都可以使用。当时这并不是一个显而易见的决定。我们从 Vercel 这类公司获得启发——它们支持很多前端框架,而不只支持自己的 Next.js

如今,LangSmith 已经可开箱集成多个框架:AutoGen、Claude Agent SDK、CrewAI、Mastra、OpenAI Agents、PydanticAI、Vercel AI SDK 等。它支持基于 OpenTelemetry 的 tracing,因此任何能输出 OTEL 规范的数据都可被 LangSmith 接入。它同样支持完全不依赖框架构建的 Agent。很多 LangSmith 客户(包括 Clay、Harvey 和 Vanta)并未使用我们的开源框架,但依然依赖 LangSmith 做 observability 和 evals。

在 Agent engineering 中,构建与测试正在融合

无论你用什么 Agent 框架,trace 对理解 Agent 行为都至关重要。我们一直在讨论 agent trace 的重要性,因为它是 Agent 调试、监控、评测等能力的基础。对于 Agent 来说,你的应用逻辑记录在 trace 里,而不只是代码里。把 Agent 搭出来只是第一步。Agent 是非确定性系统,在真正上线之前,你并不知道会遇到什么输入、产出什么结果。这就是为什么调试、测试和监控是 agent engineering 以及构建流程本身的关键组成部分。

所以,如果你没有使用我们的 OSS 框架,我们也很想知道原因!不过,这不该阻碍你借助 LangSmith 去弄清楚 Agent 为什么失败、又是如何失败的。

订阅我们的 newsletter

来自 LangChain 团队和社区的更新

输入你的邮箱

正在处理你的申请...

成功!请查看收件箱并点击确认链接,完成订阅。

抱歉,出现了一些问题。请重试。

查看原文 ↗

相关文章

如何评估 Coding Agent 的 Skills:LangChain 实战方法
深度LangChain·3月5日
如何评估 Coding Agent 的 Skills:LangChain 实战方法

LangChain 分享了为 Codex、Claude Code、Deep Agents CLI 构建并评估 Skills 的实践经验,核心是通过可复现的任务与清晰指标验证 Skills 是否真正提升 Agent 表现。文章给出一套四步评估流程:搭建干净测试环境、定义约束任务与指标、设计并拆分 Skills、对比不同配置下的性能。实测显示,加入 Skills 后 Claude Code 任务完成率显著提升,同时借助 LangSmith 的 tracing 与评测能力可以更快定位失败原因并迭代优化。

10 分钟
GitHub 与 Andela 经验:让全球开发者真正获得 AI 机会
深度GitHub·3月5日
GitHub 与 Andela 经验:让全球开发者真正获得 AI 机会

GitHub 与 Andela 在过去两年为全球 550 万人才网络推进结构化 AI 培训,已有 3,000 名工程师通过 AI Academy 接受 GitHub Copilot 实战训练。项目将 AI 学习嵌入真实生产流程,而非脱离业务的实验,帮助开发者更快理解遗留系统、提升信心并提高效率。文章指出,AI 技能差距的本质并非能力不足,而是工具、导师与实践环境的可获得性差异。

10 分钟