Servidor MCP de verificación cruzada de múltiples LLM
Un servidor de Protocolo de Control de Modelos (MCP) que permite la verificación cruzada de respuestas de múltiples proveedores de LLM simultáneamente. Este servidor se integra con Claude Desktop como servidor MCP para proporcionar una interfaz unificada para consultar diferentes API de LLM.
Características
Consultar varios proveedores de LLM en paralelo
Actualmente admite:
OpenAI (ChatGPT)
Antrópico (Claude)
IA de perplejidad
Google (Géminis)
Procesamiento paralelo asincrónico para respuestas más rápidas
Fácil integración con Claude Desktop
Related MCP server: Parquet MCP Server
Prerrequisitos
Python 3.8 o superior
Claves API para los proveedores de LLM que desea utilizar
Gestor de paquetes uv (instalar con
pip install uv)
Instalación
Instalación mediante herrería
Para instalar Multi LLM Cross-Check Server para Claude Desktop automáticamente a través de Smithery :
Instalación manual
Clonar este repositorio:
Inicializar el entorno uv e instalar los requisitos:
Configurar en Claude Desktop: cree un archivo llamado
claude_desktop_config.jsonen su directorio de configuración de Claude Desktop con el siguiente contenido:{ "mcp_servers": [ { "command": "uv", "args": [ "--directory", "/multi-llm-cross-check-mcp-server", "run", "main.py" ], "env": { "OPENAI_API_KEY": "your_openai_key", // Get from https://platform.openai.com/api-keys "ANTHROPIC_API_KEY": "your_anthropic_key", // Get from https://console.anthropic.com/account/keys "PERPLEXITY_API_KEY": "your_perplexity_key", // Get from https://www.perplexity.ai/settings/api "GEMINI_API_KEY": "your_gemini_key" // Get from https://makersuite.google.com/app/apikey } } ] }Notas:
Solo necesita agregar las claves API de los proveedores LLM que desee usar. El servidor omitirá los proveedores sin claves API configuradas.
Es posible que necesites introducir la ruta completa del ejecutable uv en el campo de comandos. Puedes obtenerla ejecutando
which uven macOS/Linux owhere uven Windows.
Uso del servidor MCP
Una vez configurado:
El servidor se iniciará automáticamente cuando abras Claude Desktop
Puedes usar la herramienta
cross_checken tus conversaciones pidiendo "verificar con otros LLM"Proporcione un mensaje y devolverá respuestas de todos los proveedores LLM configurados
Formato de respuesta de la API
El servidor devuelve un diccionario con respuestas de cada proveedor LLM:
Manejo de errores
Si no se proporciona una clave API para un LLM específico, se omitirá ese proveedor
Los errores de API se detectan y se devuelven en la respuesta.
La respuesta de cada LLM es independiente, por lo que los errores con un proveedor no afectarán a los demás.
Contribuyendo
¡Agradecemos sus contribuciones! No dude en enviar una solicitud de incorporación de cambios.
Licencia
Este proyecto está licenciado bajo la licencia MIT: consulte el archivo de LICENCIA para obtener más detalles.