自我优化
Self-Improvement Agent Skill
by brandon114
当 Agent 需要从任务执行中学习并自我优化时,激活此技能。
安装
claude skill add --url github.com/openclaw/skills/tree/main/skills/brandon114/self-improving-agent-python文档
当 Agent 需要从任务执行中学习并自我优化时,激活此技能。
激活条件
用户提到以下关键词时激活:
- "自我改进"、"自我优化"、"学习经验"
- "任务评估"、"性能分析"
- "优化工作流程"、"提升效率"
- 需要 Agent 从错误中学习的场景
核心概念
Agent 不应该只是执行任务,还应该从执行中学习,不断优化自己的表现。
三层自我改进机制:
- Layer 1: 实时反馈循环 - 每次任务执行后立即评估
- Layer 2: 周期性深度反思 - 定期深度分析
- Layer 3: 跨 Agent 经验共享 - 共享学习成果
任务评估标准
评分公式
总分 = 完成度(30%) + 效率(20%) + 质量(30%) + 满意度(20%)
评分等级
| 分数 | 等级 | 行动 |
|---|---|---|
| ≥90 | 优秀 | 记录最佳实践 |
| 80-89 | 良好 | 继续保持 |
| 70-79 | 及格 | 识别改进点 |
| <70 | 不及格 | 触发深度反思 |
使用方法
Python 版本(推荐)
# 评估任务
python scripts/evaluate_task.py \
--agent-id "my-agent" \
--task-id "task-001" \
--task-type "内容创作" \
--completion 90 \
--efficiency 85 \
--quality 80 \
--satisfaction 85
# 记录经验
python scripts/learn_lesson.py \
--agent-id "my-agent" \
--lesson "验证链接有效性" \
--impact high \
--category quality
# 优化分析
python scripts/optimize_agent.py --agent-id "my-agent"
# 跨 Agent 同步
python scripts/sync_learning.py
参数说明
evaluate_task.py
| 参数 | 说明 | 必填 |
|---|---|---|
| --agent-id | Agent 标识 | 是 |
| --task-id | 任务标识 | 是 |
| --task-type | 任务类型 | 是 |
| --completion | 完成度 (0-100) | 是 |
| --efficiency | 效率 (0-100) | 是 |
| --quality | 质量 (0-100) | 是 |
| --satisfaction | 满意度 (0-100) | 是 |
learn_lesson.py
| 参数 | 说明 | 必填 | 可选值 |
|---|---|---|---|
| --agent-id | Agent 标识 | 是 | |
| --lesson | 经验描述 | 是 | |
| --impact | 影响程度 | 是 | high/medium/low |
| --category | 类别 | 是 | quality/efficiency/tools/knowledge |
数据存储位置
{workspace}/
├── self-improvement/
│ ├── evaluations.json # 评估记录
│ ├── lessons-learned.json # 经验库
│ └── optimization-plan.json # 优化计划
└── shared-context/
└── self-improvement/
└── collective-wisdom.json # 共享知识库
最佳实践
何时评估
- 完成重要任务后
- 完成复杂任务后
- 任务失败或返工后
- 简单重复性任务可选
如何记录经验
- 记录具体的失败场景
- 记录成功的关键因素
- 记录工具使用的注意事项
如何应用学习
- 定期回顾经验库
- 主动应用最佳实践
- 分享给其他 Agent
故障排查
| 问题 | 解决 |
|---|---|
| 找不到工作区 | 检查 config.py 中的路径配置 |
| 经验未同步 | 手动运行 sync_learning.py |
| 优化计划生成失败 | 确保有足够的历史评估数据 |
让每个 Agent 都成为终身学习者!
Version: 1.1.0 (Python Edition) Tags: agent, self-improvement, learning, optimization
相关 Skills
Claude接口
by anthropics
面向接入 Claude API、Anthropic SDK 或 Agent SDK 的开发场景,自动识别项目语言并给出对应示例与默认配置,快速搭建 LLM 应用。
✎ 想把Claude能力接进应用或智能体,用claude-api上手快、兼容Anthropic与Agent SDK,集成路径清晰又省心
提示工程专家
by alirezarezvani
覆盖Prompt优化、Few-shot设计、结构化输出、RAG评测与Agent工作流编排,适合分析token成本、评估LLM输出质量,并搭建可落地的AI智能体系统。
✎ 把提示优化、LLM评测到RAG与智能体设计串成一套方法,适合想系统提升AI开发效率的人。
智能体流程设计
by alirezarezvani
面向生产级多 Agent 编排,梳理顺序、并行、分层、事件驱动、共识五种工作流设计,覆盖 handoff、状态管理、容错重试、上下文预算与成本优化,适合搭建复杂 AI 协作系统。
✎ 帮你把多智能体流程设计、编排和自动化统一起来,复杂工作流也能更稳地落地,适合追求强控制力的团队。
相关 MCP 服务
顺序思维
编辑精选by Anthropic
Sequential Thinking 是让 AI 通过动态思维链解决复杂问题的参考服务器。
✎ 这个服务器展示了如何让 Claude 像人类一样逐步推理,适合开发者学习 MCP 的思维链实现。但注意它只是个参考示例,别指望直接用在生产环境里。
知识图谱记忆
编辑精选by Anthropic
Memory 是一个基于本地知识图谱的持久化记忆系统,让 AI 记住长期上下文。
✎ 帮 AI 和智能体补上“记不住”的短板,用本地知识图谱沉淀长期上下文,连续对话更聪明,数据也更可控。
PraisonAI
编辑精选by mervinpraison
PraisonAI 是一个支持自反思和多 LLM 的低代码 AI 智能体框架。
✎ 如果你需要快速搭建一个能 24/7 运行的 AI 智能体团队来处理复杂任务(比如自动研究或代码生成),PraisonAI 的低代码设计和多平台集成(如 Telegram)让它上手极快。但作为非官方项目,它的生态成熟度可能不如 LangChain 等主流框架,适合愿意尝鲜的开发者。