代理模式✨
AgentMode 是一款一体化的模型上下文协议 (MCP) 服务器,可将您的 AI 编码连接到数十个数据库、数据仓库、数据管道、云服务等。此扩展旨在通过与各种数据和云平台无缝集成来简化您的开发工作流程。
安装👨💻
VS Code 快速入门
安装我们的VS Code 扩展。
单击 agentmode 扩展旁边的“安装”按钮。
通过命令面板(
Ctrl+Shift+P
或 macOS 上的Cmd+Shift+P
)启动 MCP 服务器,然后输入“MCP”,然后选择“MCP:列出服务器”并单击代理模式。单击 VS Code 右下角状态栏中的“AgentMode”文本以打开浏览器选项卡,登录,然后设置您的连接。
无需 VS 代码(Python 包)
打开终端并使用
curl -LsSf https://astral.sh/uv/install.sh | sh
安装 uvuv init
uv add agentmode
uv run agentmode
MCP(模型上下文协议)🌐
AgentMode 利用模型上下文协议(MCP) 使您的编码 AI 能够:
访问和查询数据库和数据仓库。
与数据管道交互以进行实时或批处理。
使用网络浏览器。
查看生产服务的日志。
连接到云服务以进行存储、计算等。
连接🔌
AgentMode 支持多种连接,包括:
数据库:MySQL、PostgreSQL 等。
数据仓库:Snowflake、BigQuery、Redshift 等。
数据管道:Airflow、Prefect 等。
云服务:AWS、Azure、Google Cloud 等(即将推出!)
要配置连接,请按照以下步骤操作:
启动 MCP 服务器并访问
http://localhost:13000/setup
单击您想要设置的连接的图标。
填写连接详细信息和凭据(所有凭据都本地存储在您的机器上)。
任何所需的依赖项都将即时安装。
帮助🛟
如果您遇到任何问题或有疑问,您可以:
请参阅文档。
在GitHub 存储库中打开一个问题。
在我们的Discord 服务器上与我们聊天。
贡献💬
添加更多连接器和测试
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
一体化模型上下文协议 (MCP) 服务器,将您的编码 AI 连接到众多数据库、数据仓库、数据管道和云服务,通过无缝集成简化开发工作流程。
Related MCP Servers
- AsecurityFlicenseAqualityImplements the Model Context Protocol (MCP) to provide AI models with a standardized interface for connecting to external data sources and tools like file systems, databases, or APIs.Last updated -1136
- -securityAlicense-qualityA Model Context Protocol (MCP) server that implements AI-First Development framework principles, allowing LLMs to interact with context-first documentation tools and workflows for preserving knowledge and intent alongside code.Last updated -337AGPL 3.0
- -securityAlicense-qualityA guide for implementing Model Context Protocol (MCP) servers that provide AI models with external tools like web search, text manipulation, and mathematical operations.Last updated -8MIT License
- -securityFlicense-qualityA Model Context Protocol (MCP) Server that provides unified access to multiple external APIs (weather, news, financial data) through a single, consistent interface for AI agents and LLMs.Last updated -1