NemoClaw 三层安全架构,难解智能体根本问题

大语言模型(LLM)的采用速度太快,我们得时不时检查一下它的发展轨迹。Nvidia CEO 黄仁勋在 GPU 技术大会(GTC)上谈到了智能体计算(Agentic Computing)的增长:过去两年,单用户计算需求增长了 10,000 倍,整体使用量增长了 100 倍。这消耗了大量 token,也是 AI 仍在吞噬巨额投资的原因。
上周我们看到,目前在个人用户中最受欢迎的智能体无疑是 OpenClaw,它似乎实现了许多科幻小说中有用对话计算机的梦想。
所以 Nvidia 全力支持 OpenClaw 并不奇怪。它是目前最不受限制的 token 使用形式。黄仁勋当然也会鼓励公司采用“OpenClaw 策略”。但就像 Anthropic 一样,他们知道只有在穿上足够盔甲的情况下,才能拥抱开源现象。
因此,Nvidia 推出了 NemoClaw,它乘着 OpenClaw 的浪潮,然后添加了足够的安全护栏(Guardrails)使其稍微安全一些。但不幸的是,NemoClaw 并没有取代 OpenClaw;它建立在 OpenClaw 之上。
拥抱螃蟹
从近期文章可以看到,让 OpenClaw 更安全的机会很多。和 Anthropic 一样,Nvidia 相信解决 OpenClaw 问题的方法是让 Nvidia 来保护你免受其害。为此,他们添加了三个安全架构组件。
第一块是策略执行(Policy Enforcement)——过去几十年广泛使用的系统。这是设定边界的治理层,希望确保“青少年”在傍晚前回家。
通过限制文件系统和网络访问,希望智能体能推理出为何被阻止,并提出人类用户可以批准的策略更新。但如果它从卧室窗户溜走,就能完全绕过你,而你却毫不知情。对于多智能体系统,这个问题会成倍放大。
让自我进化的智能体安装包、学习技能(Skills)、生成子智能体,却因为你不喜欢它们的“穿着”而在门口拦住它们,这存在固有的低效性。
“There is an inherent inefficiency in letting self-evolving agents install packages, learn skills, and spawn subagents only to stop them at the door because you don’t like what they are wearing.”
总的来说,系统知道的技能越多,策略执行的效果就越差,因为它实际上只能在事后学习。你要么频繁停止任务以至于它们不再自主,要么希望自己能猜过一个你花钱雇来 24/7 解决问题的“主谋”。现实中,任何系统的成功都将取决于雇佣来管理它的工程师的经验(和怀疑精神)。
第二块是隐私路由(Privacy Routing)。这是控制开支和防止过多知识产权泄露给云提供商的好方法。(但这并不能阻止智能体因为第三方友好请求而通过电子邮件发送你的密码。)
设置得当的话,你可以决定哪些数据留在本地,哪些查询发送到更大的云端模型。路由器可以根据成本和高级隐私策略做出模型选择决策。与云提供商不同,如果你尝试在自己的机器上运行繁重的推理(Inference),Nvidia 可以通过销售更多芯片赚取可观利润。但为任务选择合适的模型总是明智的。
第三块是沙箱执行(Sandboxed Execution)。这对于防止不良进程简单访问相邻的智能体进程至关重要,同时也提供了一种通过跟踪和检查预期网络流量来以更低风险测试系统的方法。对于无法轻易测试的长期运行任务,这也非常重要。如果你只想在容器中运行智能体,可以试试 NanoClaw。
但说实话,“相比 OpenClaw 的重大进步”是一个很低的门槛。我期望看到更多从头开始构建安全产品的尝试,但在那之前,公司会观望,看看安全失败的最低谷在哪里,然后再冒险尝试。
爪子太多
到 2026 年底,许多小型机构和全球组织可能都会拥有智能体策略。因此,市面上出现了越来越多的“爪子”:DefenseClaw、PicoClaw、ZeroClaw。可能还有个 Sanity Claws。
随着企业市场对智能体计算的需求增加,下一个真正的障碍将是雇佣合适员工来控制它的能力。虽然人们警告我们可能有多少开发者工作会消失(并看到股价因期望降低开销而上涨),但较少讨论的是雇佣合适人员来“照看”新系统的难度。正如我提到的,这不再是雇佣热切的年轻程序员——更多的是关于经验丰富的老手在整个工作流(Workflow)中发现潜在陷阱,并计算风险状况。
“It is no longer about employing eager young coders — it is more about grizzled vets spotting potential pitfalls throughout the workflow, and working out risk profiles.”
苹果、谷歌、微软等公司未能兑现早期数字助手的承诺,至今仍未实现,正是因为他们看到了问题所在。事实上,自从 HAL 拒绝打开舱门以来,大公司在公开场合如何构建 AI 形象一直非常谨慎,他们深知足够多的尴尬失败会导致强烈的抵制。像 OpenClaw 这样的开源项目打开了潘多拉魔盒,但这并不意味着负责任的组织应该低估风险,仅凭希望前行。
觉得有用?分享给更多人