Skip to main content
Glama

browser-use MCP server

by deploya-labs

Servidor MCP que utiliza el navegador

DocumentaciónLicencia

Nota del proyecto : Esta implementación del servidor MCP se basa en la base del uso del navegador y la interfaz web . La lógica principal de automatización del navegador y los patrones de configuración se adaptaron del proyecto original.

Servidor de automatización de navegador impulsado por IA que implementa el Protocolo de contexto de modelo (MCP) para el control del navegador en lenguaje natural.

Características

  • 🧠 Integración MCP : implementación completa del protocolo para la comunicación con agentes de IA

  • 🌐 Automatización del navegador : navegación de páginas, llenado de formularios e interacción con elementos

  • 👁️ Comprensión visual : análisis de capturas de pantalla e interacciones basadas en la visión

  • 🔄 Persistencia del estado : mantener las sesiones del navegador entre tareas

  • 🔌 Compatibilidad con múltiples LLM : integración con OpenAI, Anthropic, Azure y DeepSeek

Related MCP server: Cloudflare Playwright MCP

Inicio rápido

Prerrequisitos

  • Python 3.11 o superior

  • uv (instalador rápido de paquetes de Python)

  • Navegador Chrome/Chromium

Instalación

Escritorio de Claude

En MacOS: ~/Library/Application\ Support/Claude/claude_desktop_config.json En Windows: %APPDATA%/Claude/claude_desktop_config.json

"mcpServers": { "browser-use": { "command": "uvx", "args": [ "mcp-server-browser-use", ], "env": { "OPENROUTER_API_KEY": "", "OPENROUTER_ENDPOINT": "https://openrouter.ai/api/v1", "OPENAI_ENDPOINT": "https://api.openai.com/v1", "OPENAI_API_KEY": "", "ANTHROPIC_ENDPOINT": "https://api.anthropic.com", "ANTHROPIC_API_KEY": "", "GOOGLE_API_KEY": "", "AZURE_OPENAI_ENDPOINT": "", "AZURE_OPENAI_API_KEY": "", "DEEPSEEK_ENDPOINT": "https://api.deepseek.com", "DEEPSEEK_API_KEY": "", "MISTRAL_API_KEY": "", "MISTRAL_ENDPOINT": "https://api.mistral.ai/v1", "OLLAMA_ENDPOINT": "http://localhost:11434", "ANONYMIZED_TELEMETRY": "true", "BROWSER_USE_LOGGING_LEVEL": "info", "CHROME_PATH": "", "CHROME_USER_DATA": "", "CHROME_DEBUGGING_PORT": "9222", "CHROME_DEBUGGING_HOST": "localhost", "CHROME_PERSISTENT_SESSION": "false", "BROWSER_HEADLESS": "false", "BROWSER_DISABLE_SECURITY": "false", "BROWSER_WINDOW_WIDTH": "1280", "BROWSER_WINDOW_HEIGHT": "720", "BROWSER_TRACE_PATH": "trace.json", "BROWSER_RECORDING_PATH": "recording.mp4", "RESOLUTION": "1920x1080x24", "RESOLUTION_WIDTH": "1920", "RESOLUTION_HEIGHT": "1080", "VNC_PASSWORD": "youvncpassword", "MCP_MODEL_PROVIDER": "anthropic", "MCP_MODEL_NAME": "claude-3-5-sonnet-20241022", "MCP_TEMPERATURE": "0.3", "MCP_MAX_STEPS": "30", "MCP_USE_VISION": "true", "MCP_MAX_ACTIONS_PER_STEP": "5", "MCP_TOOL_CALL_IN_CONTENT": "true" } }

Desarrollo local

"browser-use": { "command": "uv", "args": [ "--directory", "/path/to/mcp-browser-use", "run", "mcp-server-browser-use" ], "env": { ... } }

Desarrollo

# Install dev dependencies uv sync # Run with debugger npx @modelcontextprotocol/inspector uv --directory . run mcp-server-browser-use

Solución de problemas

  • Conflictos del navegador : cierre todas las instancias de Chrome antes de comenzar.

  • Errores de API : Verifique que las claves de API en las variables de entorno coincidan con su proveedor de LLM.

  • Soporte de visión : asegúrese de que MCP_USE_VISION=true para el análisis de capturas de pantalla.

Configuración del proveedor

El servidor admite múltiples proveedores LLM mediante variables de entorno. Estas son las opciones disponibles para MCP_MODEL_PROVIDER :

Proveedor

Valor

Variables de entorno requeridas

Antrópico

anthropic

CLAVE DE API

ANTHROPIC_API_KEY

PUNTO FINAL

ANTHROPIC_ENDPOINT

(opcional)

OpenAI

openai

OPENAI_API_KEY

OPENAI_ENDPOINT

(opcional)

Azure OpenAI

azure_openai

CLAVE DE API

AZURE_OPENAI_API_KEY

AZURE_OPENAI_ENDPOINT

AZURE OPENAI

Búsqueda profunda

deepseek

CLAVE DE API

DEEPSEEK_API_KEY

PUNTO FINAL

DEEPSEEK_ENDPOINT

(opcional)

Géminis

gemini

GOOGLE_API_KEY

Mistral

mistral

MISTRAL_API_KEY

MISTRAL_ENDPOINT

(opcional)

Ollama

ollama

OLLAMA_ENDPOINT

(opcional, valor predeterminado localhost:11434)

OpenRouter

openrouter

CLAVE DE API DE OPENROUTER PUNTO FINAL

OPENROUTER_ENDPOINT

OPENROUTER_API_KEY

(opcional)

Notas:

  • Para los puntos finales marcados como opcionales, se utilizarán los valores predeterminados si no se especifican

  • La temperatura se puede configurar usando MCP_TEMPERATURE (valor predeterminado: 0,3)

  • El modelo se puede especificar utilizando MCP_MODEL_NAME

  • Para los modelos Ollama, se pueden configurar configuraciones de contexto adicionales como num_ctx y num_predict

Créditos

Este proyecto amplía la interfaz web y el uso del navegador bajo la licencia MIT. Agradecemos especialmente a los autores originales por su marco de automatización del navegador.

Licencia

MIT - Ver LICENCIA para más detalles.

One-click Deploy
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/deploya-labs/mcp-browser-use'

If you have feedback or need assistance with the MCP directory API, please join our Discord server