浏览器使用的 MCP 服务器
项目说明:此 MCP 服务器实现基于浏览器使用/Web UI基础。核心浏览器自动化逻辑和配置模式均改编自原始项目。
人工智能驱动的浏览器自动化服务器,实现模型上下文协议 (MCP),用于自然语言浏览器控制。
特征
🧠 MCP 集成- AI 代理通信的完整协议实现
🌐浏览器自动化- 页面导航、表单填写和元素交互
👁️视觉理解- 屏幕截图分析和基于视觉的交互
🔄状态持久化- 在任务之间维护浏览器会话
🔌多 LLM 支持- OpenAI、Anthropic、Azure、DeepSeek 集成
Related MCP server: Cloudflare Playwright MCP
快速入门
先决条件
Python 3.11 或更高版本
uv(快速 Python 包安装程序)
Chrome/Chromium浏览器
安装
克劳德桌面
在 MacOS 上: ~/Library/Application\ Support/Claude/claude_desktop_config.json在 Windows 上: %APPDATA%/Claude/claude_desktop_config.json
本地开发
发展
故障排除
浏览器冲突:启动前关闭所有 Chrome 实例。
API 错误:验证环境变量中的 API 密钥是否与您的 LLM 提供商匹配。
视觉支持:确保
MCP_USE_VISION=true进行屏幕截图分析。
提供程序配置
服务器通过环境变量支持多个 LLM 提供程序。以下是MCP_MODEL_PROVIDER的可用选项:
提供者 | 价值 | 必需的环境变量 |
人择 |
|
(可选) |
OpenAI |
|
(可选) |
Azure OpenAI |
|
|
DeepSeek |
|
(可选) |
双子座 |
|
|
米斯特拉尔 |
|
(可选) |
奥拉马 |
|
(可选,默认为 localhost:11434) |
OpenRouter |
|
(可选) |
笔记:
对于标记为可选的端点,如果未指定,则将使用默认值
可以使用
MCP_TEMPERATURE配置温度(默认值:0.3)可以使用
MCP_MODEL_NAME指定模型对于 Ollama 模型,可以配置其他上下文设置,例如
num_ctx和num_predict
致谢
本项目在 MIT 许可证下扩展了browser-use/web-ui 。特别感谢原作者提供的浏览器自动化框架。
执照
MIT——详情请参阅许可证。