ai.smithery/aamangeldi-dad-jokes-mcp
AI 与智能体by aamangeldi
可随机获取dad joke,也能按关键词搜索;还支持通过ID取回指定笑话,方便复用或精准查找。
什么是 ai.smithery/aamangeldi-dad-jokes-mcp?
可随机获取dad joke,也能按关键词搜索;还支持通过ID取回指定笑话,方便复用或精准查找。
README
Dad Jokes MCP Server
A lightweight Model Context Protocol (MCP) server that provides dad jokes from icanhazdadjoke.com.
Features
- 🎭 Get random dad jokes
- 🔍 Search jokes by keyword
- 🆔 Retrieve specific jokes by ID
- ⚡ Fast and lightweight
- 🚀 Ready for Smithery deployment
Tools
get_random_joke_tool
Get a random dad joke.
Example:
{}
search_jokes_tool
Search for dad jokes containing a specific term.
Parameters:
term(string, required): Search term to find jokeslimit(integer, optional): Number of jokes to return (default: 5, max: 30)
Example:
{
"term": "pizza",
"limit": 3
}
get_joke_by_id_tool
Retrieve a specific joke by its ID.
Parameters:
joke_id(string, required): The ID of the joke to retrieve
Example:
{
"joke_id": "R7UfaahVfFd"
}
Local Development
Prerequisites
- Python 3.11+
- pip
Setup
- Clone the repository:
git clone https://github.com/aamangeldi/dad-jokes-mcp.git
cd dad-jokes-mcp
- Create a virtual environment and install dependencies:
python3 -m venv venv
source venv/bin/activate # On Windows: venv\Scripts\activate
pip install fastmcp smithery httpx
- Run the server locally:
fastmcp run server.py
Deployment to Smithery
- Push your code to GitHub
- Connect your repository to Smithery
- Smithery will automatically detect the configuration and deploy your server
The server uses:
runtime: pythoninsmithery.yaml- FastMCP for the server implementation
@smithery.server()decorator for configuration
Configuration
The server requires no authentication or configuration. It uses the free icanhazdadjoke.com API with the following defaults:
- API:
https://icanhazdadjoke.com - No API key required
- Rate limiting follows icanhazdadjoke.com policies
Credits
Dad jokes provided by icanhazdadjoke.com
License
MIT License - see LICENSE file for details
常见问题
ai.smithery/aamangeldi-dad-jokes-mcp 是什么?
可随机获取dad joke,也能按关键词搜索;还支持通过ID取回指定笑话,方便复用或精准查找。
相关 Skills
Claude接口
by anthropics
面向接入 Claude API、Anthropic SDK 或 Agent SDK 的开发场景,自动识别项目语言并给出对应示例与默认配置,快速搭建 LLM 应用。
✎ 想把Claude能力接进应用或智能体,用claude-api上手快、兼容Anthropic与Agent SDK,集成路径清晰又省心
智能体流程设计
by alirezarezvani
面向生产级多 Agent 编排,梳理顺序、并行、分层、事件驱动、共识五种工作流设计,覆盖 handoff、状态管理、容错重试、上下文预算与成本优化,适合搭建复杂 AI 协作系统。
✎ 帮你把多智能体流程设计、编排和自动化统一起来,复杂工作流也能更稳地落地,适合追求强控制力的团队。
提示工程专家
by alirezarezvani
覆盖Prompt优化、Few-shot设计、结构化输出、RAG评测与Agent工作流编排,适合分析token成本、评估LLM输出质量,并搭建可落地的AI智能体系统。
✎ 把提示优化、LLM评测到RAG与智能体设计串成一套方法,适合想系统提升AI开发效率的人。
相关 MCP Server
知识图谱记忆
编辑精选by Anthropic
Memory 是一个基于本地知识图谱的持久化记忆系统,让 AI 记住长期上下文。
✎ 帮 AI 和智能体补上“记不住”的短板,用本地知识图谱沉淀长期上下文,连续对话更聪明,数据也更可控。
顺序思维
编辑精选by Anthropic
Sequential Thinking 是让 AI 通过动态思维链解决复杂问题的参考服务器。
✎ 这个服务器展示了如何让 Claude 像人类一样逐步推理,适合开发者学习 MCP 的思维链实现。但注意它只是个参考示例,别指望直接用在生产环境里。
PraisonAI
编辑精选by mervinpraison
PraisonAI 是一个支持自反思和多 LLM 的低代码 AI 智能体框架。
✎ 如果你需要快速搭建一个能 24/7 运行的 AI 智能体团队来处理复杂任务(比如自动研究或代码生成),PraisonAI 的低代码设计和多平台集成(如 Telegram)让它上手极快。但作为非官方项目,它的生态成熟度可能不如 LangChain 等主流框架,适合愿意尝鲜的开发者。