LLM Puente MCP
LLM Bridge MCP permite a los agentes de IA interactuar con múltiples modelos de lenguaje extensos a través de una interfaz estandarizada. Utiliza el Protocolo de Control de Mensajes (MCP) para proporcionar un acceso fluido a diferentes proveedores de LLM, lo que facilita el cambio entre modelos o el uso de varios en la misma aplicación.
Características
- Interfaz unificada para múltiples proveedores de LLM:
- OpenAI (modelos GPT)
- Antrópico (modelos de Claude)
- Google (modelos Gemini)
- Búsqueda profunda
- ...
- Creado con Pydantic AI para seguridad y validación de tipos
- Admite parámetros personalizables como temperatura y tokens máximos.
- Proporciona seguimiento de uso y métricas.
Herramientas
El servidor implementa la siguiente herramienta:
prompt
: El mensaje de texto que se enviará al LLMmodel_name
: Modelo específico a utilizar (predeterminado: "openai")temperature
: controla la aleatoriedad (0,0 a 1,0)max_tokens
: Número máximo de tokens a generarsystem_prompt
: mensaje del sistema opcional para guiar el comportamiento del modelo
Instalación
Instalación mediante herrería
Para instalar llm-bridge-mcp para Claude Desktop automáticamente a través de Smithery :
Instalación manual
- Clonar el repositorio:
- Instalar uv (si aún no está instalado):
Configuración
Cree un archivo .env
en el directorio raíz con sus claves API:
Uso
Uso con Claude Desktop o Cursor
Agregue una entrada de servidor a su archivo de configuración de Claude Desktop o .cursor/mcp.json
:
Solución de problemas
Problemas comunes
1. Error "spawn uvx ENOENT"
Este error ocurre cuando el sistema no puede encontrar el ejecutable uvx
en su PATH. Para solucionarlo:
Solución: utilice la ruta completa a uvx
Encuentre la ruta completa a su ejecutable uvx:
Luego actualice la configuración de su servidor MCP para utilizar la ruta completa:
Licencia
Este proyecto está licenciado bajo la licencia MIT: consulte el archivo de LICENCIA para obtener más detalles.
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Tools
Permite que los agentes de IA interactúen con múltiples proveedores de LLM (OpenAI, Anthropic, Google, DeepSeek) a través de una interfaz estandarizada, lo que facilita el cambio entre modelos o el uso de múltiples modelos en la misma aplicación.
Related MCP Servers
- AsecurityAlicenseAqualityProvides integration with OpenRouter.ai, allowing access to various AI models through a unified interface.Last updated -45553TypeScriptApache 2.0
- -securityFlicense-qualityFacilitates enhanced interaction with large language models (LLMs) by providing intelligent context management, tool integration, and multi-provider AI model coordination for efficient AI-driven workflows.Last updated -Python
- -securityFlicense-qualityEnables communication and coordination between different LLM agents across multiple systems, allowing specialized agents to collaborate on tasks, share context, and coordinate work through a unified platform.Last updated -6TypeScript
- AsecurityAlicenseAqualityAn AI router that connects applications to multiple LLM providers (OpenAI, Anthropic, Google, DeepSeek, Ollama, etc.) with smart model orchestration capabilities, enabling dynamic switching between models for different reasoning tasks.Last updated -367116TypeScriptMIT License