LangChain联手NVIDIA发布企业级智能体平台

指南LangChain2026年3月16日5 分钟阅读
LangChain联手NVIDIA发布企业级智能体平台
LangChain与NVIDIA深度整合,推出企业级智能体开发平台。该平台结合LangSmith、LangGraph等框架与NVIDIA Nemotron模型、NeMo Agent Toolkit等工具,为企业提供从构建、部署到监控的全栈解决方案。

LangChain与NVIDIA达成全面合作,共同推出企业级智能体AI开发平台。作为合作的一部分,LangChain还加入了NVIDIA的Nemotron联盟——这是一个通过共享专业知识、数据和计算来推进前沿开放AI模型的全球倡议。

平台技术栈整合

此次合作将LangChain的LangSmith智能体工程平台及其开源框架(Deep Agents、LangGraph和LangChain)与NVIDIA Agent Toolkit相结合,包括:

  • NVIDIA Nemotron模型
  • NVIDIA NeMo Agent Toolkit性能分析和优化工具
  • NVIDIA NIM微服务
  • NVIDIA Dynamo

开发者由此获得完整的技术栈,用于在生产环境中构建、部署和持续改进AI智能体。平台还集成了NVIDIA OpenShell——一个基于策略安全护栏(Guardrails)的沙盒运行时环境,用于运行自主、自我演进的智能体。

开发团队通常需要花费数月时间构建自定义基础设施,而不是交付业务价值。LangChain-NVIDIA平台正是为了弥合这一差距而设计。

平台核心能力

构建:LangGraph、Deep Agents与AI-Q

整合后的LangChain-NVIDIA技术栈支持开发者构建不同复杂度的智能体:

  • LangGraph:提供有状态多智能体编排(Orchestration)运行时,支持复杂控制流和人机协同(Human-in-the-Loop)模式
  • Deep Agents:LangChain的智能体执行框架(Harness),内置任务规划、子智能体生成、长期记忆和上下文管理,支持运行数分钟到数小时、跨越数十个步骤的智能体
  • NVIDIA AI-Q Blueprint:此次合作的旗舰成果,是一个完整的生产级企业深度研究系统,在深度研究基准测试中排名第一
  • NeMo Agent Toolkit:让团队能够以最少的代码更改接入现有的LangGraph智能体,并立即获得高级性能分析、评估以及MCP/A2A协议支持,用于组合多智能体系统

加速:NVIDIA优化LangGraph

LangChain NVIDIA软件包提供NVIDIA优化的执行策略,在编译时应用,无需更改节点逻辑或图边:

  • 并行执行:自动识别独立节点并同时运行,消除顺序瓶颈
  • 推测执行:同时运行条件边的两个分支,一旦路由条件解析就丢弃错误分支

这些优化显著降低了复杂多步骤智能体工作流的端到端延迟。

部署:NVIDIA NIM微服务

NIM微服务在云、本地和混合环境中提供比标准部署高达2.6倍的吞吐量。Nemotron 3 Super的MoE架构支持在单个GPU上进行经济高效的部署。

NVIDIA NeMo Agent Toolkit增加了生产就绪功能,包括身份验证、速率限制以及用于调试已部署工作流的内置UI。该工具包的GPU集群规模计算器让团队能够在负载下分析其LangGraph工作流,并预测从单个用户扩展到数千个并发会话的确切硬件需求。

监控:LangSmith与NeMo Agent Toolkit

LangSmith已处理超过150亿条追踪记录和100万亿个token,提供应用级可观测性(Observability):

  • 分布式追踪
  • 成本和延迟监控
  • Insights Agent:自动检测使用模式和故障模式
  • Polly:自然语言调试和提示工程(Prompt Engineering)
  • LangSmith CLI:用于处理追踪数据

NeMo Agent Toolkit可观测性系统原生将遥测数据导出到LangSmith,创建统一视图,其中基础设施级性能分析(token使用、计时、吞吐量)与LangSmith的应用级追踪和AI驱动分析相结合。

为确保企业拥有采用负责任AI实践的正确工具,NVIDIA NeMo Guardrails与LangChain开箱即用集成,使团队能够强制执行内容安全和策略合规性,同时根据用例定制安全护栏(Guardrails)。

评估:覆盖Nemotron模型家族

LangSmith和NeMo Agent Toolkit共同提供覆盖完整智能体生命周期的全面评估:

  • LangSmith:支持离线评估(人工审查、LLM-as-judge、成对比较、通过pytest/Vitest/GitHub工作流的CI/CD集成)和在线评估,包括多轮评估,对整个对话轨迹进行任务完成度和决策质量评分
  • NeMo Agent Toolkit:补充了RAG特定评估器、智能体轨迹分析以及超参数和提示优化器

这些功能在应用于Nemotron模型家族时尤其强大:团队可以在Nemotron 3 Nano(30B/3B活跃参数)、Super(约100B/10B活跃参数)和Ultra(约500B/50B活跃参数)上对同一智能体进行基准测试,衡量准确性、延迟和成本之间的权衡,然后使用NeMo Agent Toolkit的自动强化学习为特定工作流微调(Fine-tuning)选定的Nemotron模型。

未来展望

Deep Agents与GPU加速计算

此次合作为Deep Agents在由NVIDIA CUDA-X库提供支持的GPU加速计算沙盒中运行奠定了基础。这将使智能体能够使用NVIDIA cuDF进行大规模结构化数据操作,使用NVIDIA NeMo Curator进行PB级数据管理,从而在金融服务和医疗保健等行业开辟新的可能性。

加入Nemotron联盟

LangChain加入Nemotron联盟,这是一个模型构建者和AI开发者的全球协作组织,共同构建前沿级开放基础模型。联盟允许参与者为共享基础贡献数据、评估框架和后训练创新,同时独立专业化并为自己的行业和用例构建差异化的AI系统。

通过加入联盟,LangChain旨在帮助塑造前沿开放模型的能力,同时考虑智能体开发者的需求,确保为生产智能体提供动力的模型能够获得大规模部署团队的意见。这一合作反映了对开放、透明AI开发的共同承诺,以及共同交付帮助客户从原型更快过渡到生产的工具和基础设施。

“随着LangChain框架每月下载量超过1亿次,我们已经看到前沿模型必须超越原始智能,实现可靠的工具调用(Tool Use)、长视野推理和智能体协调,”LangChain联合创始人兼首席执行官Harrison Chase表示。“通过NVIDIA Nemotron联盟,我们将为这些模型构建最佳的智能体执行框架(Harness),严格评估其能力,并提供对智能体行为的全面可观测性(Observability),帮助使Nemotron模型成为下一代AI智能体的最佳基础。”

“企业需要开放、灵活的工具来构建为其工作流程定制并安全大规模部署的AI智能体。LangChain的框架和LangSmith的可观测性(Observability),结合NVIDIA Nemotron模型、Agent Toolkit和NIM微服务,为开发者提供了从原型到生产的完整基础,”NVIDIA企业AI副总裁Justin Boitano表示。

可用性

LangChain-NVIDIA集成现已可用。LangGraph和LangChain框架在github.com/langchain-ai开源。LangSmith可在smith.langchain.com获取。NVIDIA Nemotron 3 Nano和Super通过NVIDIA NIM微服务在Hugging Face上提供,并与LangChain生态系统集成更新,Nemotron 3 Ultra预计在2026年上半年推出。NVIDIA NeMo Agent Toolkit可在github.com/NVIDIA/NeMo-Agent-Toolkit获取。


关于LangChain

LangChain是为从AI初创公司到全球企业的顶级工程团队提供动力的智能体工程平台。其开源框架,包括LangChain、LangGraph和Deep Agents,累计下载量已超过10亿次,被超过100万从业者使用。LangSmith是可观测性(Observability)和评估平台,为超过300家企业客户提供服务,已处理超过150亿条追踪记录和100万亿个token。LangChain由红杉资本、Benchmark和IVP支持。更多信息请访问langchain.com


媒体联系人:press@langchain.dev

本文编译自 LangChain Announces Enterprise Agentic AI Platform Built with NVIDIA,版权归原作者所有。

觉得有用?分享给更多人

获取每周 AI 工具精选

工具推荐、实战教程和生态洞察,每周更新。

相关文章

pgEdge 推出开源 MCP Server for Postgres,支持 AI 智能体通过模型上下文协议(MCP)而非传统 API 方式访问数据库。服务强调数据源无关性、完整模式自省和 token 优化,适用于 Claude Code、Cursor 等主流 AI 开发工具。

指南The New Stack·4月2日·4 分钟

Google 推出 Flex 和 Priority 两个新的推理层级,帮助开发者平衡成本与可靠性。Flex 是成本优化层级,适合后台任务,价格便宜一半;Priority 是最高保障层级,适合用户交互型应用。两者都通过同步接口调用,简化了架构管理。

指南·4月2日·3 分钟

评论