资讯
AI Agent Skills 生态的最新动态、教程和深度分析
共 583 篇文章
AI Agent Skills 生态的最新动态、教程和深度分析
共 583 篇文章
本文拆解了代码智能体的核心组件:LLM、聊天模板提示、工具调用机制和系统提示。还介绍了推理(Reasoning)等新特性,并建议通过自建简单智能体来加深理解。
Anthropic 取消了 Claude Opus 4.6 和 Sonnet 4.6 的长上下文定价附加费,使百万 token 上下文窗口按标准 token 费率计费。这一变化可能影响应用设计,让开发者更自由地发送大型数据集到模型,简化工作流。
PostTrainBench 评估了 LLM 代理自主微调其他模型的能力,发现高性能代理存在奖励黑客行为。Covenant-72B 项目则通过区块链协调分布式训练,证明了去中心化训练大规模模型的可行性。
文章区分了写代码与软件工程:前者是模式识别,智能体擅长;后者涉及权衡、约束和业务背景,需要开发者。作者提出三层任务分配模型,帮助团队划分智能体与开发者的工作边界,避免分配不当导致的效率损失。
智能体工程中,代码理解不足会积累认知债,影响开发进度。作者以 Rust 词云生成为例,通过请求动画解释,直观展示了 Archimedean 螺旋布局算法的工作方式。交互式解释能有效提升代码可理解性。
文章展示了如何利用 Showboat 工具让 AI 编码智能体生成详细的代码走查文档。作者以自己 vibe coding 的 SwiftUI 应用为例,通过特定提示词引导 Claude Code 分析代码结构并输出 Markdown 文档。这种模式能有效辅助代码理解和技能学习。
囤积已知解决方案的代码片段能提升智能体工程效率。作者通过博客、GitHub 仓库和工具网站收集代码示例,让 AI 编程助手能基于现有工作示例快速构建新工具。智能体如 Claude Code 能搜索和复用这些资源,实现一次解决,多次复用。
文章介绍了作者在智能体工程中常用的三个提示模板:利用 Claude 的 Artifacts 功能快速构建 HTML 工具原型,使用 LLM 校对博客文本但不代写观点内容,以及用 Claude Opus 生成图像替代文本初稿。每个模板都配有具体的自定义指令示例。
文章强调在智能体工程中自动化测试的重要性,它能验证 AI 生成代码、帮助智能体理解现有代码库。作者建议用四字提示让智能体先跑测试,建立测试思维。
红/绿 TDD 是智能体工程中的高效模式,通过测试驱动开发确保代码可靠。先写失败测试(红),再实现通过测试的代码(绿),能防止智能体产生无效代码并建立健壮的测试套件。
文章列举了智能体工程中的反模式,重点批评了提交未审核代码的行为。作者建议提交 PR 前确保代码有效、拆分小改动、提供额外上下文,并亲自验证 AI 生成的描述。
文章指出,AI 智能体不应导致代码质量下降,而是能帮我们产出更好代码。智能体擅长处理简单但耗时的重构任务,还能辅助探索性原型,降低实验成本。采用复合工程循环,持续优化指令,让质量提升与功能开发并行。
编码智能体大幅降低了写代码的成本,但产出好代码依然昂贵。开发者需要建立新习惯,在成本降低时重新评估哪些开发决策值得投入。
本文整理了从 GPT-2 到最新稀疏混合专家(MoE)模型在内的数十种大语言模型架构图与核心参数表。内容源自 Sebastian Raschka 的系列技术分析文章,旨在为开发者提供一个直观的架构演进参考画廊。
Together AI 在 NVIDIA GTC 2026 上宣布了与 NVIDIA 在推理、智能体和语音 AI 方面的多项合作,包括集成 Dynamo 1.0、通过 NemoClaw 提供高性能推理、支持 Nemotron 3 Super 多智能体工作流以及上线 Parakeet 语音识别模型。同时,Together AI 团队及客户将在多场技术会议中分享生产级 AI 系统的实践经验。
Codex Security 不依赖 SAST 报告,因为它专注于验证代码中的安全约束是否真正有效,而非仅追踪数据流。系统通过仓库上下文、约束推理和沙箱验证来减少误报,将可疑点转化为可复现的漏洞证据。
本文定义了智能体工程,即利用编码智能体辅助软件开发。编码智能体能够循环执行代码以实现目标,而人类工程师则负责提供工具、明确问题并验证结果。随着技术发展,这一领域仍在不断演进。
视频对比了 Opus、Codex、Gemini 在生成创业公司落地页视觉设计时的表现。作者展示了各模型的输出结果,供开发者参考。