Herramienta de evaluación comparativa MCP vLLM
Esta es una prueba de concepto sobre cómo utilizar MCP para evaluar de forma interactiva vLLM.
No somos nuevos en benchmarking, lea nuestro blog:
Evaluación comparativa de vLLM
Esta es solo una exploración de posibilidades con MCP.
Uso
- Clonar el repositorio
- Agreguelo a sus servidores MCP:
Entonces puedes indicar un ejemplo como este:
Hacer:
- Debido a algunas salidas aleatorias de vllm, es posible que se indique que encontró un JSON no válido. Aún no lo he investigado.
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Una herramienta interactiva que permite a los usuarios evaluar los puntos finales de vLLM a través de MCP, lo que permite realizar pruebas de rendimiento de modelos LLM con parámetros personalizables.
Related MCP Servers
- AsecurityAlicenseAqualityAn MCP server that provides LLMs access to other LLMsLast updated 4 months ago455957JavaScriptMIT License
- -securityFlicense-qualityAn MCP server that allows Claude to interact with local LLMs running in LM Studio, providing access to list models, generate text, and use chat completions through local models.Last updated 4 months ago8Python
- -securityAlicense-qualityAn MCP server that allows agents to test and compare LLM prompts across OpenAI and Anthropic models, supporting single tests, side-by-side comparisons, and multi-turn conversations.Last updated 5 months agoPythonMIT License
- AsecurityFlicenseAqualityA lightweight MCP server that provides a unified interface to various LLM providers including OpenAI, Anthropic, Google Gemini, Groq, DeepSeek, and Ollama.Last updated a month ago6491Python