Skip to main content
Glama

Locust MCP Server

🚀 ⚡️ servidor locust-mcp

Implementación de un servidor de Protocolo de Contexto de Modelo (MCP) para ejecutar pruebas de carga de Locust. Este servidor permite una integración fluida de las capacidades de pruebas de carga de Locust con entornos de desarrollo basados en IA.

✨ Características

  • Integración sencilla con el marco del Protocolo de Contexto de Modelo
  • Compatibilidad con modos sin cabeza y de interfaz de usuario
  • Parámetros de prueba configurables (usuarios, tasa de generación, tiempo de ejecución)
  • API fácil de usar para ejecutar pruebas de carga de Locust
  • Salida de ejecución de pruebas en tiempo real
  • Compatibilidad con el protocolo HTTP/HTTPS lista para usar
  • Compatibilidad con escenarios de tareas personalizados

Servidor Locust-MCP

🔧 Requisitos previos

Antes de comenzar, asegúrese de tener instalado lo siguiente:

📦 Instalación

  1. Clonar el repositorio:
git clone https://github.com/qainsights/locust-mcp-server.git
  1. Instale las dependencias necesarias:
uv pip install -r requirements.txt
  1. Configurar variables de entorno (opcional): Cree un archivo .env en la raíz del proyecto:
LOCUST_HOST=http://localhost:8089 # Default host for your tests LOCUST_USERS=3 # Default number of users LOCUST_SPAWN_RATE=1 # Default user spawn rate LOCUST_RUN_TIME=10s # Default test duration

🚀 Primeros pasos

  1. Cree un script de prueba de Locust (por ejemplo, hello.py ):
from locust import HttpUser, task, between class QuickstartUser(HttpUser): wait_time = between(1, 5) @task def hello_world(self): self.client.get("/hello") self.client.get("/world") @task(3) def view_items(self): for item_id in range(10): self.client.get(f"/item?id={item_id}", name="/item") time.sleep(1) def on_start(self): self.client.post("/login", json={"username":"foo", "password":"bar"})
  1. Configure el servidor MCP utilizando las siguientes especificaciones en su cliente MCP favorito (Claude Desktop, Cursor, Windsurf y más):
{ "mcpServers": { "locust": { "command": "/Users/naveenkumar/.local/bin/uv", "args": [ "--directory", "/Users/naveenkumar/Gits/locust-mcp-server", "run", "locust_server.py" ] } } }
  1. Ahora solicite al LLM que ejecute la prueba, por ejemplo, run locust test for hello.py . El servidor Locust MCP usará la siguiente herramienta para iniciar la prueba:
  • run_locust : ejecuta una prueba con opciones configurables para el modo sin cabeza, el host, el tiempo de ejecución, los usuarios y la tasa de generación

Referencia de API

Ejecutar la prueba de langosta

run_locust( test_file: str, headless: bool = True, host: str = "http://localhost:8089", runtime: str = "10s", users: int = 3, spawn_rate: int = 1 )

Parámetros:

  • test_file : Ruta a su script de prueba de Locust
  • headless : Ejecutar en modo sin cabeza (Verdadero) o con interfaz de usuario (Falso)
  • host : host de destino para la prueba de carga
  • runtime : Duración de la prueba (p. ej., "30 s", "1 m", "5 m")
  • users : Número de usuarios simultáneos a simular
  • spawn_rate : Frecuencia con la que se generan los usuarios

✨ Casos de uso

  • Análisis de resultados impulsados por LLM
  • Depuración eficaz con la ayuda de LLM

🤝 Contribuyendo

¡Agradecemos sus contribuciones! No dude en enviar una solicitud de incorporación de cambios.

📄 Licencia

Este proyecto está licenciado bajo la licencia MIT: consulte el archivo de LICENCIA para obtener más detalles.

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Un servidor que integra las capacidades de prueba de carga de Locust con entornos de desarrollo impulsados por IA, lo que permite a los usuarios ejecutar pruebas de rendimiento a través de comandos de lenguaje natural.

  1. ✨ Características
    1. 🔧 Requisitos previos
      1. 📦 Instalación
        1. 🚀 Primeros pasos
          1. Referencia de API
            1. Ejecutar la prueba de langosta
          2. ✨ Casos de uso
            1. 🤝 Contribuyendo
              1. 📄 Licencia

                Related MCP Servers

                • A
                  security
                  A
                  license
                  A
                  quality
                  A Model Context Protocol (MCP) server implementation that allows AI assistants to run k6 load tests through natural language commands, supporting custom test durations and virtual users.
                  Last updated -
                  2
                  10
                  Python
                  MIT License
                • -
                  security
                  A
                  license
                  -
                  quality
                  An AI-powered MCP server that automates web testing workflows by enabling recording, execution, and discovery of tests through natural language prompts.
                  Last updated -
                  55
                  Python
                  Apache 2.0
                  • Linux
                  • Apple
                • -
                  security
                  A
                  license
                  -
                  quality
                  AI-powered agent that streamlines web testing workflows by allowing developers to record, execute, and discover tests using natural language prompts in their AI coding assistants.
                  Last updated -
                  55
                  Python
                  Apache 2.0
                  • Linux
                  • Apple
                • -
                  security
                  A
                  license
                  -
                  quality
                  A lightweight server that enables AI agents to interact with the Windows operating system, allowing for file navigation, application control, UI interaction, and QA testing through various tools.
                  Last updated -
                  1,401
                  Python
                  MIT License

                View all related MCP servers

                MCP directory API

                We provide all the information about MCP servers via our MCP API.

                curl -X GET 'https://glama.ai/api/mcp/v1/servers/QAInsights/locust-mcp-server'

                If you have feedback or need assistance with the MCP directory API, please join our Discord server