深度网搜

tavily-web-search

by brucetangc

Complete Tavily toolkit: Search, Extract, Usage, Crawl, Map, Research. All official APIs with safety controls.

3.7k搜索与获取未扫描2026年3月23日

安装

claude skill add --url github.com/openclaw/skills/tree/main/skills/brucetangc/tavily-web-search-full

文档

Tavily Web Search

完整功能的 Tavily 网络搜索工具,基于官方 API 文档实现。专为 AI Agent 和 RAG 工作流设计。

✨ 功能特性

核心功能

  • 🔄 自动重试 - 3 次重试 + 指数退避
  • 💾 查询缓存 - 1 小时 TTL,节省 API 额度
  • 📝 详细日志 - ~/.openclaw/logs/tavily.log
  • 🎯 多种输出 - JSON / Brave 兼容 / Markdown

官方 API 完整支持

功能参数说明
搜索深度--search-depthbasic / advanced / fast / ultra-fast
主题分类--topicgeneral / news / finance
时间过滤--time-rangeday / week / month / year
日期范围--start-date / --end-dateYYYY-MM-DD 格式
域名过滤--include-domains / --exclude-domains逗号分隔
国家定向--countryunited states / china
AI 答案--include-answer / --answer-typebasic / advanced
完整内容--include-raw-contentmarkdown / text
图片搜索--include-images包含图片结果
自动参数--auto-parametersAI 自动配置
精确匹配--exact-match精确短语匹配

📦 安装

从 ClawHub 安装(推荐)

bash
clawhub install tavily-web-search-full

本地使用

Skill 已放置在:~/.openclaw/workspace/skills/tavily-web-search/

配置 API Key

bash
# 方法 1: 添加到 ~/.openclaw/.env
echo "TAVILY_API_KEY=tvly-your-key-here" >> ~/.openclaw/.env

# 方法 2: 环境变量
export TAVILY_API_KEY="tvly-your-key-here"

获取 API Key: https://app.tavily.com/home (每月 1000 免费信用)

🚀 使用示例

🔍 Search API(搜索)

bash
# 简单搜索(默认 compact Markdown 输出)
python3 {baseDir}/scripts/search.py --query "Python tutorial"

# 指定结果数量
python3 {baseDir}/scripts/search.py --query "Docker compose" --max-results 10

# 新闻搜索
python3 {baseDir}/scripts/search.py --query "AI breakthrough" --topic news --time-range day

# 深度研究
python3 {baseDir}/scripts/search.py --query "LLM architecture" --search-depth advanced

# 域名过滤
python3 {baseDir}/scripts/search.py --query "React" --include-domains "github.com,dev.to"

📄 Extract API(URL 内容提取)

bash
# 提取单个 URL
python3 {baseDir}/scripts/extract.py --urls "https://example.com/article"

# 提取多个 URL
python3 {baseDir}/scripts/extract.py --urls "https://a.com,https://b.com,https://c.com"

# 带查询提取(按相关性重排内容)
python3 {baseDir}/scripts/extract.py --urls "https://example.com" --query "find pricing information"

# 高级提取(更详细,2 信用/5 URL)
python3 {baseDir}/scripts/extract.py --urls "https://example.com" --extract-depth advanced

# 包含图片
python3 {baseDir}/scripts/extract.py --urls "https://example.com" --include-images

# 输出为纯文本
python3 {baseDir}/scripts/extract.py --urls "https://example.com" --format text

📊 Usage API(使用量查询)

bash
# 查看使用量(简洁模式)
python3 {baseDir}/scripts/usage.py

# 详细 Markdown 输出
python3 {baseDir}/scripts/usage.py --md

# JSON 输出
python3 {baseDir}/scripts/usage.py --json

# 查询特定项目
python3 {baseDir}/scripts/usage.py --project-id "my-project-123"

🕷️ Crawl API(网站爬取)⚠️ 默认禁用

成本: 3-5 信用/10 页 | 必须使用 --enable

bash
# 爬取网站(必须使用 --enable)
python3 {baseDir}/scripts/crawl.py --url "https://example.com" --enable

# 带指令爬取
python3 {baseDir}/scripts/crawl.py --url "https://example.com" --enable --instructions "find all pricing pages"

# 限制页数
python3 {baseDir}/scripts/crawl.py --url "https://example.com" --enable --limit 20

🗺️ Map API(网站地图)⚠️ 默认禁用

成本: 1-2 信用/10 页 | 必须使用 --enable

bash
# 生成网站地图
python3 {baseDir}/scripts/map.py --url "https://example.com" --enable

# 带指令
python3 {baseDir}/scripts/map.py --url "https://example.com" --enable --instructions "find all blog posts"

# 输出 URL 列表
python3 {baseDir}/scripts/map.py --url "https://example.com" --enable --output urls

📚 Research API(深度研究)⚠️⚠️ 强烈建议默认禁用

成本: 4-250 信用/次 | 必须使用 --enable --confirm

bash
# 深度研究(必须使用 --enable AND --confirm)
python3 {baseDir}/scripts/research.py --query "AI impact on healthcare" --enable --confirm

# Pro 模型(更贵但质量更高)
python3 {baseDir}/scripts/research.py --query "market analysis" --model pro --enable --confirm

新闻搜索

bash
# 今日新闻
python3 {baseDir}/scripts/search.py --query "AI breakthrough" --topic news --time-range day

# 本周财经
python3 {baseDir}/scripts/search.py --query "stock market" --topic finance --time-range week

# 指定日期范围
python3 {baseDir}/scripts/search.py --query "election results" --start-date 2025-01-01 --end-date 2025-01-31

深度研究

bash
# 高级模式(最高相关性,2 信用/次)
python3 {baseDir}/scripts/search.py --query "LLM architecture" --search-depth advanced

# 包含完整页面内容
python3 {baseDir}/scripts/search.py --query "React best practices" --include-raw-content markdown

# 详细 AI 答案
python3 {baseDir}/scripts/search.py --query "climate change impact" --answer-type advanced

域名过滤

bash
# 只搜索特定网站
python3 {baseDir}/scripts/search.py --query "JavaScript tips" --include-domains "github.com,dev.to,medium.com"

# 排除某些网站
python3 {baseDir}/scripts/search.py --query "Python tutorial" --exclude-domains "w3schools.com"

# 组合使用
python3 {baseDir}/scripts/search.py --query "Rust programming" --include-domains "rust-lang.org,docs.rs" --exclude-domains "reddit.com"

国家/地区定向

bash
# 美国科技新闻
python3 {baseDir}/scripts/search.py --query "tech startups" --country "united states" --topic news

# 中国财经
python3 {baseDir}/scripts/search.py --query "stock market" --country "china" --topic finance

图片搜索

bash
# 搜索图片
python3 {baseDir}/scripts/search.py --query "sunset photography" --include-images

# 带描述
python3 {baseDir}/scripts/search.py --query "machine learning" --include-images --include-image-descriptions

快速搜索(低延迟)

bash
# 快速模式(1 信用,低延迟)
python3 {baseDir}/scripts/search.py --query "weather today" --search-depth fast

# 超快速(1 信用,最低延迟)
python3 {baseDir}/scripts/search.py --query "stock price" --search-depth ultra-fast

自动参数

bash
# 让 Tavily 自动配置(可能使用 advanced=2 信用)
python3 {baseDir}/scripts/search.py --query "comprehensive analysis of AI trends" --auto-parameters

# 自动参数但手动控制深度(控制成本)
python3 {baseDir}/scripts/search.py --query "research query" --auto-parameters --search-depth basic

精确匹配

bash
# 精确搜索人名/公司名
python3 {baseDir}/scripts/search.py --query '"John Smith" CEO Acme Corp' --exact-match

📋 完整参数说明

bash
python3 {baseDir}/scripts/search.py --help

必需参数

参数说明
--query搜索关键词(建议 <400 字符)

搜索深度

参数值延迟相关性内容类型信用
ultra-fast最低较低NLP 摘要1
fast良好相关片段1
basic中等NLP 摘要1
advanced较高最高相关片段2

💡 最佳实践

查询优化

  • 保持查询简洁 - 建议 <400 字符
  • 复杂查询拆分 - 分成多个小查询
  • 使用精确匹配 - 人名/公司名用 --exact-match
  • 合理设置 max-results - 3-5 个足够(默认 5)

搜索深度选择

  • basic - 日常搜索(推荐)
  • advanced - 深度研究(特定问题)
  • fast / ultra-fast - 实时应用

结果过滤

bash
# 按相关性分数过滤
python3 scripts/search.py --query "Python" --min-score 0.7

# 只搜索特定域名
python3 scripts/search.py --query "React" --include-domains "github.com,dev.to"

# 排除低质量站点
python3 scripts/search.py --query "AI" --exclude-domains "content-farm.com"

成本优化

  • ⚠️ auto_parameters 可能使用 advanced(2 信用)
  • ✅ 手动设置 --search-depth basic 控制成本
  • ✅ 使用缓存(默认开启)
  • ✅ 批量提取 URL(5 个 URL = 1 信用)

💰 API 信用说明

日常 API(推荐)

API操作信用消耗免费额度可用次数
Searchbasic/fast/ultra-fast1/次1,000 次
Searchadvanced2/次500 次
Extractbasic1/5 URL5,000 URL
Extractadvanced2/5 URL2,500 URL
Usage查询免费无限

高级 API(默认禁用 ⚠️)

API操作信用消耗免费额度可用次数
Map标准1/10 页~10,000 页
Map带指令2/10 页~5,000 页
Crawlbasic~3/10 页~3,300 页
Crawladvanced~5/10 页~2,000 页

研究 API(极度昂贵 ⚠️⚠️)

API模型信用消耗免费额度可用次数
Researchmini4-110/次9-250 次
Researchpro15-250/次4-66 次

免费额度: 1000 信用/月

安全控制

API默认状态启用方式
Search✅ 启用直接使用
Extract✅ 启用直接使用
Usage✅ 启用直接使用
Map❌ 禁用--enable
Crawl❌ 禁用--enable
Research❌ 禁用--enable --confirm

节省信用技巧

  1. 日常使用 Search/Extract/Usage
  2. 启用缓存(默认开启)
  3. 设置合理的 max-results(3-5 足够)
  4. 避免不必要的 include_raw_content
  5. 批量提取 URL(5 个 URL = 1 信用)
  6. 谨慎使用 Crawl/Map/Research

主题分类

  • general - 通用搜索(默认)
  • news - 新闻(包含 published_date
  • finance - 财经

时间过滤

  • --time-range: day / week / month / year
  • --start-date: YYYY-MM-DD
  • --end-date: YYYY-MM-DD

输出格式

  • compact - 简洁 Markdown(默认)
  • md - 详细 Markdown(包含分数、完整内容)
  • brave - JSON(兼容 web_search 格式)
  • raw - 原始 JSON(包含所有字段)

💰 API 信用说明

操作信用消耗
basic/fast/ultra-fast 搜索1
advanced 搜索2
include_answer (advanced)+1
include_raw_content+1
include_images+1

免费额度: 1000 信用/月

节省信用技巧

  1. 使用 basic 深度进行日常搜索
  2. 启用缓存(默认开启)
  3. 设置合理的 max-results(3-5 足够)
  4. 避免不必要的 include_raw_content

🔄 自动更新

Tavily API 约每月更新 1-2 次。Skill 包含自动更新功能,定期检查官方 API 变更。

手动检查更新

bash
# 检查是否有更新
python3 {baseDir}/scripts/update.py --check-only

# 应用更新
python3 {baseDir}/scripts/update.py

# 强制更新(即使无变更)
python3 {baseDir}/scripts/update.py --force

# 查看状态
python3 {baseDir}/scripts/update.py --status

自动更新(推荐)

添加每周检查的 cron 任务:

bash
# 编辑 crontab
crontab -e

# 添加每周日 9:00 检查更新
0 9 * * 0 cd ~/.openclaw/workspace/skills/tavily-web-search && python3 scripts/update.py >> /tmp/tavily-update.log 2>&1

更新日志

  • 更新记录:{baseDir}/update.log
  • 最后检查:{baseDir}/.last_check
  • 版本信息:{baseDir}/_meta.json

📁 文件位置

code
~/.openclaw/
├── .env                          # API key 配置
├── cache/tavily/                 # 缓存目录
│   ├── search/                   # Search 缓存
│   ├── extract/                  # Extract 缓存
│   ├── crawl/                    # Crawl 缓存
│   ├── map/                      # Map 缓存
│   └── research/                 # Research 缓存
├── logs/
│   ├── tavily.log                # Search 日志
│   ├── tavily_extract.log        # Extract 日志
│   ├── tavily_usage.log          # Usage 日志
│   ├── tavily_crawl.log          # Crawl 日志
│   ├── tavily_map.log            # Map 日志
│   └── tavily_research.log       # Research 日志
└── workspace/skills/tavily-web-search/
    ├── SKILL.md                  # 本文档
    ├── README.md                 # 快速开始
    ├── CHANGELOG.md              # 更新日志
    ├── _meta.json                # 版本信息
    ├── update.log                # 更新日志
    ├── .last_check               # 最后检查记录
    └── scripts/
        ├── search.py             # Search API(搜索)✅ 默认启用
        ├── extract.py            # Extract API(URL 提取)✅ 默认启用
        ├── usage.py              # Usage API(使用量查询)✅ 默认启用
        ├── crawl.py              # Crawl API(网站爬取)❌ 默认禁用
        ├── map.py                # Map API(网站地图)❌ 默认禁用
        ├── research.py           # Research API(深度研究)❌ 默认禁用
        ├── update.py             # 自动更新脚本
        └── test_all.py           # 测试套件

🔧 故障排除

"Missing TAVILY_API_KEY"

bash
# 检查配置
cat ~/.openclaw/.env | grep TAVILY

# 或设置环境变量
export TAVILY_API_KEY="tvly-xxx"

"Search failed after 3 attempts"

清除缓存

bash
rm -rf ~/.openclaw/cache/tavily/*

禁用缓存

bash
python3 {baseDir}/scripts/search.py --query "test" --no-cache

📚 参考链接

相关 Skills

agent-browser

by chulla-ceja

热门

Browser automation CLI for AI agents. Use when the user needs to interact with websites, including navigating pages, filling forms, clicking buttons, taking screenshots, extracting data, testing web apps, or automating any browser task. Triggers include requests to "open a website", "fill out a form", "click a button", "take a screenshot", "scrape data from a page", "test this web app", "login to a site", "automate browser actions", or any task requiring programmatic web interaction.

搜索与获取
未扫描3.7k

接口规范

by alexxxiong

热门

API 规范管理工具 - 跨项目 API 文档的初始化、更新、查询与搜索。Triggers: 'API文档', 'API规范', '接口文档', '路由解析', 'apispec', 'API lookup', 'API search'.

搜索与获取
未扫描3.7k

investment-research

by caijichang212

热门

Perform structured investment research (投研分析) for a company/stock/ETF/sector using a repeatable framework: fundamentals (basic/财务报表与商业模式), technical analysis (技术指标与关键价位), industry research (行业景气与竞争格局), valuation (估值对比/情景), catalysts and risks, and produce a professional research report + actionable plan. Use when the user asks for: equity/ETF analysis, earnings/financial statement breakdown, peer/industry comparison, valuation ranges, bull/base/bear scenarios, technical trend/support-resistance, or a full research memo.

搜索与获取
未扫描3.7k

相关 MCP 服务

by Anthropic

热门

Puppeteer 是让 Claude 自动操作浏览器进行网页抓取和测试的 MCP 服务器。

这个服务器解决了手动编写 Puppeteer 脚本的繁琐问题,适合需要自动化网页交互的开发者,比如抓取动态内容或做端到端测试。不过,作为参考实现,它可能缺少生产级的安全防护,建议在可控环境中使用。

搜索与获取
82.9k

网页抓取

编辑精选

by Anthropic

热门

Fetch 是 MCP 官方参考服务器,让 AI 能抓取网页并转为 Markdown 格式。

这个服务器解决了 AI 直接处理网页内容时格式混乱的问题,适合需要让 Claude 分析在线文档或新闻的开发者。不过作为参考实现,它缺乏生产级的安全配置,你得自己处理反爬虫和隐私风险。

搜索与获取
82.9k

Brave 搜索

编辑精选

by Anthropic

热门

Brave Search 是让 Claude 直接调用 Brave 搜索 API 获取实时网络信息的 MCP 服务器。

如果你想让 AI 助手帮你搜索最新资讯或技术文档,这个工具能绕过传统搜索的限制,直接返回结构化数据。特别适合需要实时信息的开发者,比如查 API 更新或竞品动态。不过它依赖 Brave 的 API 配额,高频使用可能受限。

搜索与获取
82.9k

评论