Skip to main content
Glama

Multi LLM Cross-Check MCP Server

Servidor MCP de verificación cruzada de múltiples LLM

insignia de herrería Un servidor de Protocolo de Control de Modelos (MCP) que permite la verificación cruzada de respuestas de múltiples proveedores de LLM simultáneamente. Este servidor se integra con Claude Desktop como servidor MCP para proporcionar una interfaz unificada para consultar diferentes API de LLM.

Características

  • Consultar varios proveedores de LLM en paralelo

  • Actualmente admite:

    • OpenAI (ChatGPT)

    • Antrópico (Claude)

    • IA de perplejidad

    • Google (Géminis)

  • Procesamiento paralelo asincrónico para respuestas más rápidas

  • Fácil integración con Claude Desktop

Related MCP server: Parquet MCP Server

Prerrequisitos

  • Python 3.8 o superior

  • Claves API para los proveedores de LLM que desea utilizar

  • Gestor de paquetes uv (instalar con pip install uv )

Instalación

Instalación mediante herrería

Para instalar Multi LLM Cross-Check Server para Claude Desktop automáticamente a través de Smithery :

npx -y @smithery/cli install @lior-ps/multi-llm-cross-check-mcp-server --client claude

Instalación manual

  1. Clonar este repositorio:

git clone https://github.com/lior-ps/multi-llm-cross-check-mcp-server.git cd multi-llm-cross-check-mcp-server
  1. Inicializar el entorno uv e instalar los requisitos:

uv venv uv pip install -r requirements.txt
  1. Configurar en Claude Desktop: cree un archivo llamado claude_desktop_config.json en su directorio de configuración de Claude Desktop con el siguiente contenido:

    { "mcp_servers": [ { "command": "uv", "args": [ "--directory", "/multi-llm-cross-check-mcp-server", "run", "main.py" ], "env": { "OPENAI_API_KEY": "your_openai_key", // Get from https://platform.openai.com/api-keys "ANTHROPIC_API_KEY": "your_anthropic_key", // Get from https://console.anthropic.com/account/keys "PERPLEXITY_API_KEY": "your_perplexity_key", // Get from https://www.perplexity.ai/settings/api "GEMINI_API_KEY": "your_gemini_key" // Get from https://makersuite.google.com/app/apikey } } ] }

    Notas:

    1. Solo necesita agregar las claves API de los proveedores LLM que desee usar. El servidor omitirá los proveedores sin claves API configuradas.

    2. Es posible que necesites introducir la ruta completa del ejecutable uv en el campo de comandos. Puedes obtenerla ejecutando which uv en macOS/Linux o where uv en Windows.

Uso del servidor MCP

Una vez configurado:

  1. El servidor se iniciará automáticamente cuando abras Claude Desktop

  2. Puedes usar la herramienta cross_check en tus conversaciones pidiendo "verificar con otros LLM"

  3. Proporcione un mensaje y devolverá respuestas de todos los proveedores LLM configurados

Formato de respuesta de la API

El servidor devuelve un diccionario con respuestas de cada proveedor LLM:

{ "ChatGPT": { ... }, "Claude": { ... }, "Perplexity": { ... }, "Gemini": { ... } }

Manejo de errores

  • Si no se proporciona una clave API para un LLM específico, se omitirá ese proveedor

  • Los errores de API se detectan y se devuelven en la respuesta.

  • La respuesta de cada LLM es independiente, por lo que los errores con un proveedor no afectarán a los demás.

Contribuyendo

¡Agradecemos sus contribuciones! No dude en enviar una solicitud de incorporación de cambios.

Licencia

Este proyecto está licenciado bajo la licencia MIT: consulte el archivo de LICENCIA para obtener más detalles.

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/lior-ps/multi-llm-cross-check-mcp-server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server