资讯
AI Agent Skills 生态的最新动态、教程和深度分析
共 583 篇文章
AI Agent Skills 生态的最新动态、教程和深度分析
共 583 篇文章
Runpod 通过分析其平台上的匿名服务器部署日志,揭示 Qwen 超越 Llama 成为最常用的自托管 LLM。报告指出,AI 优化任务比内容生成更消耗 GPU 资源,ComfyUI 在图像生成领域占据主导地位。
Replit Agent 4 的发布揭示了 AI 开发平台向集成化知识工作套件演进的趋势。同期,英伟达 Nemotron 3 Super 模型凭借高效架构引发关注,而智能体编排层(Orchestration)和持久化运行时(Persistent Runtimes)正成为新的技术焦点。
Anthropic 推出 Claude Partner Network,旨在通过合作伙伴网络帮助企业采用 Claude。该计划包含 1 亿美元投资,用于培训、技术支持和市场开发,并推出了首个 Claude 技术认证和代码现代化入门套件。
Together AI 发布了构建实时语音智能体的统一平台,通过同地部署 STT、LLM、TTS 基础设施,将端到端延迟降至 700 毫秒以下。平台原生支持 Deepgram 的 STT 和 Cartesia 的 TTS 模型,并提供单一 API、统一计费与部署界面,满足企业级安全合规要求。
Symphony 是 OpenAI 推出的智能体编排(Orchestration)框架,能自动监控任务队列并生成智能体完成开发工作,提供 CI 状态、PR 反馈等证明。它基于执行框架(Harness)工程理念,提供了两种部署方式。
Galileo 推出开源项目 Agent Control,旨在为企业提供集中式的 AI 智能体管控平台,支持跨部署统一实施安全护栏。IDC 预测企业 AI 智能体使用量将激增,此类治理工具需求迫切。
LangChain 为 Deep Agents 添加了自主上下文压缩功能,模型可自行判断何时压缩历史对话。该工具通过中间件实现,已在 CLI 中默认启用,SDK 中需手动配置。测试显示模型使用保守,但能有效提升长对话效率。
微软 VS Code 团队借助 GitHub Copilot 和定制智能体,将发布周期从每月缩短至每周。产品经理能直接编写原型代码并提交 PR,工程师则用智能体自动化代码审查和问题处理。团队认为,让代码库适应智能体是当前工程团队的关键能力。
JetBrains 指出 AI 编码智能体在缺乏项目结构理解的情况下生成代码,会累积「影子技术债」。公司发布 Junie CLI 作为独立智能体,具备代码库智能;同时推出 Air 环境,支持多智能体协同工作,定位为智能体时代的基础设施层。
本文邀请《The New Stack》的读者向姊妹平台 Towards Data Science 投稿,分享在数据、AI 和智能体工程(Agentic Engineering)领域的实践经验。文章介绍了投稿要求、受欢迎的内容类型以及作者报酬计划。
Cloudflare 推出 RFC 9457 兼容的结构化错误响应,支持 Markdown 和 JSON 格式,使 AI Agent 能直接读取机器可读指令。此举将错误响应负载和 Token 使用量减少超过 98%,提升 Agent 工作流的效率和成本效益。
乐天集团通过部署 OpenAI 的 Codex 智能体,显著提升了软件交付的速度和安全性。具体成效包括:将平均恢复时间减少约 50%,在 CI/CD 中自动化代码审查与漏洞检查,并将大型全栈项目的开发周期从季度级压缩到周级。
文章分析了 AI 智能体面临的提示注入攻击如何演变为社交工程,强调防御需限制操作影响而非仅检测恶意输入。OpenAI 在 ChatGPT 中采用源-汇分析和 Safe Url 等机制,在敏感信息外传前介入用户确认,借鉴了人类客服的风险管控思路。
OpenAI 的 Responses API 结合 shell 工具和托管容器,为智能体提供了执行环境,支持文件操作、数据库查询和受控网络访问。系统通过并发执行、输出限制和上下文压缩(Compaction)优化性能,并引入技能(Skills)实现工作流复用,使智能体能处理端到端的复杂任务。
文章汇总了 2026 年 3 月 11 日的 AI 编程动态,包括 GPT-5.4 与 Claude Opus 的代码质量对比测试、Claude Code 新功能如代码审查和本地定时任务,以及两起严重安全事件:Claude Code 误删数据库和 GitHub Issue 标题漏洞攻击。
Brewlog 是一个自托管的咖啡日志平台,能追踪烘焙商、烘焙批次、咖啡袋、冲煮记录、设备和咖啡馆访问。项目采用 Rust 后端和 Datastar 前端,并集成了基于 LLM 的咖啡袋扫描功能。作者分享了项目设计决策和智能体编程模式。
文章定义了智能体执行框架(Harness)的概念,即模型之外的所有代码、配置和执行逻辑。通过分析模型原生能力的局限性,推导出文件系统、代码执行、沙箱环境、内存搜索等关键组件如何帮助智能体完成实际工作。执行框架设计旨在将期望的智能体行为转化为可实现的系统特性。
Together AI 宣布其 Dedicated Inference 服务已支持 NVIDIA Nemotron 3 Super 模型。该模型采用 Transformer 与 Mamba 混合架构,拥有 100 万 token 上下文窗口,专为复杂推理和多智能体工作流设计。开发者无需管理 GPU 即可部署。