Skip to main content
Glama

browser-use MCP server

by deploya-labs

浏览器使用的 MCP 服务器

文档执照

项目说明:此 MCP 服务器实现基于浏览器使用/Web UI基础。核心浏览器自动化逻辑和配置模式均改编自原始项目。

人工智能驱动的浏览器自动化服务器,实现模型上下文协议 (MCP),用于自然语言浏览器控制。

特征

  • 🧠 MCP 集成- AI 代理通信的完整协议实现

  • 🌐浏览器自动化- 页面导航、表单填写和元素交互

  • 👁️视觉理解- 屏幕截图分析和基于视觉的交互

  • 🔄状态持久化- 在任务之间维护浏览器会话

  • 🔌多 LLM 支持- OpenAI、Anthropic、Azure、DeepSeek 集成

Related MCP server: Cloudflare Playwright MCP

快速入门

先决条件

  • Python 3.11 或更高版本

  • uv(快速 Python 包安装程序)

  • Chrome/Chromium浏览器

安装

克劳德桌面

在 MacOS 上: ~/Library/Application\ Support/Claude/claude_desktop_config.json在 Windows 上: %APPDATA%/Claude/claude_desktop_config.json

"mcpServers": { "browser-use": { "command": "uvx", "args": [ "mcp-server-browser-use", ], "env": { "OPENROUTER_API_KEY": "", "OPENROUTER_ENDPOINT": "https://openrouter.ai/api/v1", "OPENAI_ENDPOINT": "https://api.openai.com/v1", "OPENAI_API_KEY": "", "ANTHROPIC_ENDPOINT": "https://api.anthropic.com", "ANTHROPIC_API_KEY": "", "GOOGLE_API_KEY": "", "AZURE_OPENAI_ENDPOINT": "", "AZURE_OPENAI_API_KEY": "", "DEEPSEEK_ENDPOINT": "https://api.deepseek.com", "DEEPSEEK_API_KEY": "", "MISTRAL_API_KEY": "", "MISTRAL_ENDPOINT": "https://api.mistral.ai/v1", "OLLAMA_ENDPOINT": "http://localhost:11434", "ANONYMIZED_TELEMETRY": "true", "BROWSER_USE_LOGGING_LEVEL": "info", "CHROME_PATH": "", "CHROME_USER_DATA": "", "CHROME_DEBUGGING_PORT": "9222", "CHROME_DEBUGGING_HOST": "localhost", "CHROME_PERSISTENT_SESSION": "false", "BROWSER_HEADLESS": "false", "BROWSER_DISABLE_SECURITY": "false", "BROWSER_WINDOW_WIDTH": "1280", "BROWSER_WINDOW_HEIGHT": "720", "BROWSER_TRACE_PATH": "trace.json", "BROWSER_RECORDING_PATH": "recording.mp4", "RESOLUTION": "1920x1080x24", "RESOLUTION_WIDTH": "1920", "RESOLUTION_HEIGHT": "1080", "VNC_PASSWORD": "youvncpassword", "MCP_MODEL_PROVIDER": "anthropic", "MCP_MODEL_NAME": "claude-3-5-sonnet-20241022", "MCP_TEMPERATURE": "0.3", "MCP_MAX_STEPS": "30", "MCP_USE_VISION": "true", "MCP_MAX_ACTIONS_PER_STEP": "5", "MCP_TOOL_CALL_IN_CONTENT": "true" } }

本地开发

"browser-use": { "command": "uv", "args": [ "--directory", "/path/to/mcp-browser-use", "run", "mcp-server-browser-use" ], "env": { ... } }

发展

# Install dev dependencies uv sync # Run with debugger npx @modelcontextprotocol/inspector uv --directory . run mcp-server-browser-use

故障排除

  • 浏览器冲突:启动前关闭所有 Chrome 实例。

  • API 错误:验证环境变量中的 API 密钥是否与您的 LLM 提供商匹配。

  • 视觉支持:确保MCP_USE_VISION=true进行屏幕截图分析。

提供程序配置

服务器通过环境变量支持多个 LLM 提供程序。以下是MCP_MODEL_PROVIDER的可用选项:

提供者

价值

必需的环境变量

人择

anthropic

ANTHROPIC_API_KEY

ANTHROPIC_ENDPOINT

(可选)

OpenAI

openai

OPENAI_API_KEY

OPENAI_ENDPOINT

(可选)

Azure OpenAI

azure_openai

AZURE_OPENAI_API_KEY

AZURE_OPENAI_ENDPOINT

DeepSeek

deepseek

DEEPSEEK_API_KEY

DEEPSEEK_ENDPOINT

(可选)

双子座

gemini

GOOGLE_API_KEY

米斯特拉尔

mistral

MISTRAL_API_KEY

MISTRAL_ENDPOINT

(可选)

奥拉马

ollama

OLLAMA_ENDPOINT

(可选,默认为 localhost:11434)

OpenRouter

openrouter

OPENROUTER_API_KEY

OPENROUTER_ENDPOINT

(可选)

笔记:

  • 对于标记为可选的端点,如果未指定,则将使用默认值

  • 可以使用MCP_TEMPERATURE配置温度(默认值:0.3)

  • 可以使用MCP_MODEL_NAME指定模型

  • 对于 Ollama 模型,可以配置其他上下文设置,例如num_ctxnum_predict

致谢

本项目在 MIT 许可证下扩展了browser-use/web-ui 。特别感谢原作者提供的浏览器自动化框架。

执照

MIT——详情请参阅许可证

One-click Deploy
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/deploya-labs/mcp-browser-use'

If you have feedback or need assistance with the MCP directory API, please join our Discord server