CrewAI Factory 联手 NVIDIA 打造企业智能体平台
CrewAI Enterprise 让企业能轻松地在云端构建、运行和监控智能体(Agentic)AI 工作流,快速实现业务流程自动化。但在实际应用中,大型企业出于安全和数据隐私的考虑,往往需要在自有基础设施上运行 AI 应用。
为此,CrewAI 宣布 CrewAI Enterprise 现在可以通过 CrewAI Factory 部署在客户自有基础设施上,无论是在数据中心还是虚拟私有云中。CrewAI Factory 提供了与 CrewAI Enterprise 相同的功能和优势,但采用客户自主管理的模式,具备以下能力:
- 管理与监控
- 实时测试与追踪
- 无代码开发
- 企业工具与连接器
- 加密通信与存储
- 安全合规运营(例如 SOC2/HIPAA/FedRAMP High)
随处部署
AWS/Azure VPC – 通过支持 AWS Fargate 和 Azure Container Apps,企业可以在自己的 VPC 和自有云数据库(如 AWS RDS/Azure Database)上运行。
Kubernetes 集群 – 通过 Helm 进行 Kubernetes 部署,企业可以在自己的 AWS Elastic Kubernetes Service、Azure Kubernetes Service、Google Kubernetes Service 集群以及 Red Hat OpenShift(本地或云端)上运行。
无服务器扩展与高可用性 – 基于容器的无服务器架构不仅简化了部署,还通过资源分配实现自动扩展,并通过持久化存储和数据库副本实现高可用性。
安全认证 – 原生集成 Auth0 和 Microsoft Entra ID,支持客户自主管理的企业级认证。
迈向智能体原生
CrewAI Factory 不仅帮助企业满足 AI 应用的安全和数据隐私要求,还弥合了 CrewAI 智能体驱动与智能体原生(agent-native)采用水平之间的差距。部署少量智能体工作流并看到其对业务的巨大潜力是一回事;将智能体 AI 作为根本性转变业务流程、加速增长的手段则是另一回事。
借助 CrewAI,企业可以实现数个数量级的扩展——从十几个智能体工作流扩展到成百上千个,从少量简单用例扩展到跨越多个团队、部门或业务单元的数百个关键用例。
成为智能体原生是 CrewAI Factory 的真正承诺。它不仅仅是一个编排智能体的框架,更是一个旨在将智能体 AI 融入创新企业 DNA 的完整平台。
构建 AI 工厂
CrewAI 与 NVIDIA 合作,共同助力企业转型。CrewAI Factory 提供智能体 AI 平台,而 NVIDIA AI Enterprise 则通过 NVIDIA NeMo 和 NVIDIA NIM 微服务为智能体提供专用模型和工具。
NIM 微服务的集成使 CrewAI 客户能够构建和部署基于 NVIDIA NeMo Retriever、NVIDIA Llama Nemotron 和 NVIDIA NeMO Guardrails 模型的智能体。通过访问这些模型以及安全、高性能的推理,CrewAI Factory 上的智能体工作流能从高级推理、工具调用(Tool Use)以及从非结构化数据中检索知识时更高的准确性中受益。NVIDIA 托管了多个参考 AI 蓝图,其中一个是 CrewAI 提交的代码文档蓝图,可在此查看。
部署 CrewAI Factory 和 NVIDIA AI Enterprise 为客户提供了自己的 AI 工厂,运行在自有基础设施上,在规模和专业化方面没有限制。
“智能体 AI 正在赋能几乎每个行业的组织更快地创新。CrewAI 和 NVIDIA 正携手合作,赋能企业编排能够推理、规划和行动的智能多智能体系统,通过智能 AI 队友来扩展生产力。”
John Fanelli,NVIDIA 企业软件副总裁
CrewAI 的首个发布周刚刚开始。请保持关注,我们还有更多内容要分享。注册参加我们本周四的研讨会,了解我们如何将智能体 AI 推向新高度!
觉得有用?分享给更多人