该项目通过MCP协议将本地 LLM(例如 Qwen)连接到计算器或知识库等工具。助手会自动检测并调用这些工具来帮助解答用户疑问。
📦 功能
🔧 通过 MCP 服务器执行工具
🧠 通过 HTTP 或 OpenAI SDK 进行本地 LLM 集成
📚 知识库支持(
data.json)⚡ 支持
stdio和sse传输
Related MCP server: MCP Documentation Server
🗂 项目文件
文件 | 描述 |
| 注册工具并启动 MCP 服务器 |
| 使用
与本地 LLM 通信 |
| 使用与 OpenAI 兼容的 SDK 实现 LLM + 工具调用逻辑 |
| 使用 stdio 的 MCP 客户端 |
| 使用 SSE 的 MCP 客户端 |
| 问答知识库 |
📥 安装
要求
Python 3.8+
安装依赖项:
requirements.txt
🚀 入门
1. 运行 MCP 服务器
这将启动您的工具服务器,具有add 、 multiply和get_knowledge_base等功能。
2. 启动客户端
选项 A:HTTP 客户端(通过原始 API 的本地 LLM)
选项 B:OpenAI SDK 客户端
选项 C:stdio 传输
选项 D:SSE 传输
确保server.py设置:
然后运行:
💬 示例提示
数学工具调用
回复:
知识库问题
响应将包括来自data.json的相关答案。
📁示例: data.json
🔧 配置
在client-http.py或clientopenai.py中,更新以下内容:
确保您的 LLM 提供与 OpenAI 兼容的 API 端点。
🧹 清理
客户端自动处理工具调用和响应。您可以使用Ctrl+C停止服务器或客户端。
🪪 许可证
MIT 许可证。请参阅LICENSE文件。