CrewAI Factory 联手 NVIDIA 打造企业智能体平台

指南CrewAI2025年5月19日3 分钟阅读
CrewAI Factory 联手 NVIDIA 打造企业智能体平台
CrewAI Enterprise 现可通过 CrewAI Factory 部署在客户自有基础设施上,满足大型企业的安全和数据隐私需求。该平台与 NVIDIA AI Enterprise 集成,为企业提供构建、运行和监控智能体(Agentic)AI 工作流的完整解决方案。

CrewAI Enterprise 让企业能轻松地在云端构建、运行和监控智能体(Agentic)AI 工作流,快速实现业务流程自动化。但在实际应用中,大型企业出于安全和数据隐私的考虑,往往需要在自有基础设施上运行 AI 应用。

为此,CrewAI 宣布 CrewAI Enterprise 现在可以通过 CrewAI Factory 部署在客户自有基础设施上,无论是在数据中心还是虚拟私有云中。CrewAI Factory 提供了与 CrewAI Enterprise 相同的功能和优势,但采用客户自主管理的模式,具备以下能力:

  • 管理与监控
  • 实时测试与追踪
  • 无代码开发
  • 企业工具与连接器
  • 加密通信与存储
  • 安全合规运营(例如 SOC2/HIPAA/FedRAMP High)

随处部署

AWS/Azure VPC – 通过支持 AWS Fargate 和 Azure Container Apps,企业可以在自己的 VPC 和自有云数据库(如 AWS RDS/Azure Database)上运行。

Kubernetes 集群 – 通过 Helm 进行 Kubernetes 部署,企业可以在自己的 AWS Elastic Kubernetes Service、Azure Kubernetes Service、Google Kubernetes Service 集群以及 Red Hat OpenShift(本地或云端)上运行。

无服务器扩展与高可用性 – 基于容器的无服务器架构不仅简化了部署,还通过资源分配实现自动扩展,并通过持久化存储和数据库副本实现高可用性。

安全认证 – 原生集成 Auth0 和 Microsoft Entra ID,支持客户自主管理的企业级认证。

迈向智能体原生

CrewAI Factory 不仅帮助企业满足 AI 应用的安全和数据隐私要求,还弥合了 CrewAI 智能体驱动与智能体原生(agent-native)采用水平之间的差距。部署少量智能体工作流并看到其对业务的巨大潜力是一回事;将智能体 AI 作为根本性转变业务流程、加速增长的手段则是另一回事。

借助 CrewAI,企业可以实现数个数量级的扩展——从十几个智能体工作流扩展到成百上千个,从少量简单用例扩展到跨越多个团队、部门或业务单元的数百个关键用例。

成为智能体原生是 CrewAI Factory 的真正承诺。它不仅仅是一个编排智能体的框架,更是一个旨在将智能体 AI 融入创新企业 DNA 的完整平台。

构建 AI 工厂

CrewAI 与 NVIDIA 合作,共同助力企业转型。CrewAI Factory 提供智能体 AI 平台,而 NVIDIA AI Enterprise 则通过 NVIDIA NeMo 和 NVIDIA NIM 微服务为智能体提供专用模型和工具。

NIM 微服务的集成使 CrewAI 客户能够构建和部署基于 NVIDIA NeMo Retriever、NVIDIA Llama Nemotron 和 NVIDIA NeMO Guardrails 模型的智能体。通过访问这些模型以及安全、高性能的推理,CrewAI Factory 上的智能体工作流能从高级推理、工具调用(Tool Use)以及从非结构化数据中检索知识时更高的准确性中受益。NVIDIA 托管了多个参考 AI 蓝图,其中一个是 CrewAI 提交的代码文档蓝图,可在此查看。

部署 CrewAI Factory 和 NVIDIA AI Enterprise 为客户提供了自己的 AI 工厂,运行在自有基础设施上,在规模和专业化方面没有限制。

“智能体 AI 正在赋能几乎每个行业的组织更快地创新。CrewAI 和 NVIDIA 正携手合作,赋能企业编排能够推理、规划和行动的智能多智能体系统,通过智能 AI 队友来扩展生产力。”

John Fanelli,NVIDIA 企业软件副总裁

CrewAI 的首个发布周刚刚开始。请保持关注,我们还有更多内容要分享。注册参加我们本周四的研讨会,了解我们如何将智能体 AI 推向新高度!

本文编译自 Unlocking agent-native transformation with CrewAI Factory and NVIDIA,版权归原作者所有。

觉得有用?分享给更多人

获取每周 AI 工具精选

工具推荐、实战教程和生态洞察,每周更新。

相关文章

pgEdge 推出开源 MCP Server for Postgres,支持 AI 智能体通过模型上下文协议(MCP)而非传统 API 方式访问数据库。服务强调数据源无关性、完整模式自省和 token 优化,适用于 Claude Code、Cursor 等主流 AI 开发工具。

指南The New Stack·4月2日·4 分钟

Google 推出 Flex 和 Priority 两个新的推理层级,帮助开发者平衡成本与可靠性。Flex 是成本优化层级,适合后台任务,价格便宜一半;Priority 是最高保障层级,适合用户交互型应用。两者都通过同步接口调用,简化了架构管理。

指南·4月2日·3 分钟

评论