多 LLM 交叉检查 MCP 服务器
模型控制协议 (MCP) 服务器,允许同时交叉核对来自多个 LLM 提供商的响应。该服务器与 Claude Desktop 集成,作为 MCP 服务器,提供统一的接口来查询不同的 LLM API。
特征
并行查询多个 LLM 提供商
目前支持:
OpenAI(ChatGPT)
人性(克劳德)
困惑人工智能
谷歌(双子座)
异步并行处理,响应更快
轻松与 Claude Desktop 集成
Related MCP server: Parquet MCP Server
先决条件
Python 3.8 或更高版本
您想要使用的 LLM 提供商的 API 密钥
uv 包管理器(使用
pip install uv安装)
安装
通过 Smithery 安装
要通过Smithery自动为 Claude Desktop 安装 Multi LLM Cross-Check Server:
手动安装
克隆此存储库:
初始化uv环境并安装要求:
在 Claude Desktop 中配置:在 Claude Desktop 配置目录中创建一个名为
claude_desktop_config.json的文件,其内容如下:{ "mcp_servers": [ { "command": "uv", "args": [ "--directory", "/multi-llm-cross-check-mcp-server", "run", "main.py" ], "env": { "OPENAI_API_KEY": "your_openai_key", // Get from https://platform.openai.com/api-keys "ANTHROPIC_API_KEY": "your_anthropic_key", // Get from https://console.anthropic.com/account/keys "PERPLEXITY_API_KEY": "your_perplexity_key", // Get from https://www.perplexity.ai/settings/api "GEMINI_API_KEY": "your_gemini_key" // Get from https://makersuite.google.com/app/apikey } } ] }笔记:
您只需为要使用的 LLM 提供程序添加 API 密钥即可。服务器将跳过任何未配置 API 密钥的提供程序。
您可能需要在命令字段中输入 uv 可执行文件的完整路径。您可以在 MacOS/Linux 上运行
which uv或在 Windows 上运行where uv来获取此路径。
使用 MCP 服务器
配置完成后:
当您打开 Claude Desktop 时,服务器将自动启动
您可以在对话中使用
cross_check工具,要求“与其他 LLM 进行交叉检查”提供提示,它将返回所有已配置的 LLM 提供程序的响应
API 响应格式
服务器返回一个包含每个 LLM 提供商的响应的字典:
错误处理
如果没有为特定 LLM 提供 API 密钥,则将跳过该提供商
API 错误被捕获并在响应中返回
每个 LLM 的响应都是独立的,因此一个提供商的错误不会影响其他提供商
贡献
欢迎贡献代码!欢迎提交 Pull 请求。
执照
该项目根据 MIT 许可证获得许可 - 有关详细信息,请参阅 LICENSE 文件。