LMStudio-MCP
Un servidor de Protocolo de Control de Modelos (MCP) que permite a Claude comunicarse con modelos LLM que se ejecutan localmente a través de LM Studio.
Descripción general
LMStudio-MCP crea un puente entre Claude (con capacidades MCP) y su instancia local de LM Studio. Esto permite a Claude:
Comprueba el estado de tu API de LM Studio
Lista de modelos disponibles
Obtener el modelo cargado actualmente
Generar finalizaciones utilizando sus modelos locales
Esto le permite aprovechar sus propios modelos que se ejecutan localmente a través de la interfaz de Claude, combinando las capacidades de Claude con sus modelos privados.
Prerrequisitos
Python 3.7+
LM Studio instalado y ejecutándose localmente con un modelo cargado
Claude con acceso MCP
Paquetes de Python necesarios (ver Instalación)
Instalación
Clonar este repositorio:
git clone https://github.com/infinitimeless/LMStudio-MCP.git cd LMStudio-MCPInstalar los paquetes necesarios:
pip install requests "mcp[cli]" openai
Configuración de MCP
Para que Claude se conecte a este puente, debe configurar correctamente los ajustes del MCP. Puede:
Usar directamente desde GitHub :
{ "lmstudio-mcp": { "command": "uvx", "args": [ "https://github.com/infinitimeless/LMStudio-MCP" ] } }Utilice la instalación local :
{ "lmstudio-mcp": { "command": "/bin/bash", "args": [ "-c", "cd /path/to/LMStudio-MCP && source venv/bin/activate && python lmstudio_bridge.py" ] } }
Para obtener instrucciones detalladas de configuración de MCP, consulte MCP_CONFIGURATION.md .
Uso
Inicie su aplicación LM Studio y asegúrese de que se esté ejecutando en el puerto 1234 (predeterminado)
Cargar un modelo en LM Studio
Si se ejecuta localmente (sin usar
uvx
), ejecute el servidor LMStudio-MCP:python lmstudio_bridge.pyEn Claude, conéctese al servidor MCP cuando se le solicite seleccionando "lmstudio-mcp".
Funciones disponibles
El puente proporciona las siguientes funciones:
health_check()
: verifica si la API de LM Studio es accesiblelist_models()
: Obtener una lista de todos los modelos disponibles en LM Studioget_current_model()
: Identifica qué modelo está cargado actualmentechat_completion(prompt, system_prompt, temperature, max_tokens)
: genera texto desde tu modelo local
Limitaciones conocidas
Algunos modelos (por ejemplo, phi-3.5-mini-instruct_uncensored) pueden tener problemas de compatibilidad
Actualmente, el puente utiliza solo los puntos finales de API compatibles con OpenAI de LM Studio
Las respuestas del modelo estarán limitadas por las capacidades de su modelo cargado localmente
Solución de problemas
Problemas de conexión de la API
Si Claude informa errores 404 al intentar conectarse a LM Studio:
Asegúrese de que LM Studio se esté ejecutando y tenga un modelo cargado
Compruebe que el servidor de LM Studio se esté ejecutando en el puerto 1234
Verifique que su firewall no esté bloqueando la conexión
Intente usar "127.0.0.1" en lugar de "localhost" en la URL de la API si los problemas persisten
Compatibilidad del modelo
Si ciertos modelos no funcionan correctamente:
Es posible que algunos modelos no admitan totalmente el formato de la API de finalización de chat de OpenAI
Pruebe diferentes valores de parámetros (temperatura, max_tokens) para modelos problemáticos
Considere cambiar a un modelo más compatible si los problemas persisten
Para obtener ayuda más detallada sobre la resolución de problemas, consulte TROUBLESHOOTING.md .
Licencia
Instituto Tecnológico de Massachusetts (MIT)
Expresiones de gratitud
Este proyecto se desarrolló originalmente como "Claude-LMStudio-Bridge_V2" y ha sido renombrado y publicado como código abierto "LMStudio-MCP".
This server cannot be installed
local-only server
The server can only run on the client's local machine because it depends on local resources.
Un puente que permite a Claude comunicarse con modelos LLM que se ejecutan localmente a través de LM Studio, lo que permite a los usuarios aprovechar sus modelos privados a través de la interfaz de Claude.
Related MCP Servers
- -securityAlicense-qualityEnables seamless integration between Ollama's local LLM models and MCP-compatible applications, supporting model management and chat interactions.Last updated -75100AGPL 3.0
- AsecurityFlicenseAqualityA bridge that enables seamless integration of Ollama's local LLM capabilities into MCP-powered applications, allowing users to manage and run AI models locally with full API coverage.Last updated -1072
- -securityAlicense-qualityA lightweight bridge extension that enables Claude Desktop to connect to VSCode workspaces via Model Context Protocol, allowing Claude to read and write files, create directories, and list contents in your workspace.Last updated -8MIT License
- -securityFlicense-qualityAn MCP server that allows Claude to interact with local LLMs running in LM Studio, providing access to list models, generate text, and use chat completions through local models.Last updated -10