Skip to main content
Glama

Model Context Protocol (MCP) Server

by hideya

使用 LangChain / Python 的 MCP 客户端许可证:MIT

这个简单的模型上下文协议 (MCP)客户端演示了 LangChain ReAct Agent 对 MCP 服务器工具的使用。

它利用了langchain_mcp_tools中的实用函数convert_mcp_to_langchain_tools()
此函数处理指定的多个 MCP 服务器的并行初始化,并将它们可用的工具转换为与 LangChain 兼容的工具列表 ( List[BaseTool] )。

目前支持 Anthropic、OpenAI 和 Groq 的 LLM。

此 MCP 客户端的 TypeScript 版本可在此处获取

先决条件

  • Python 3.11+

  • [可选] 安装uv来运行基于 Python 包的 MCP 服务器

  • [可选] npm 7+ ( 用于运行基于 Node.js 包的 MCP 服务器

  • 根据需要从AnthropicOpenAI和/或Groq获取 API 密钥

Related MCP server: OpenAPI MCP Server

设置

  1. 安装依赖项:

    make install
  2. 设置 API 密钥:

    cp .env.template .env
    • 根据需要更新.env

    • .gitignore配置为忽略.env以防止意外提交凭据。

  3. 根据需要配置 LLM 和 MCP 服务器设置llm_mcp_config.json5

    • MCP 服务器的配置文件格式遵循与Claude for Desktop相同的结构,但有一点不同:键名mcpServers已更改为mcp_servers ,以遵循 JSON 配置文件中常用的 snake_case 约定。

    • 文件格式为JSON5 ,其中允许使用注释和尾随逗号。

    • 该格式进一步扩展,用相应环境变量的值替换${...}符号。

    • 将所有凭证和私人信息保存在.env文件中,并根据需要使用${...}符号引用它们。

用法

运行应用程序:

make start

第一次运行需要一段时间。

以详细模式运行:

make start-v

查看命令行选项:

make start-h

在提示符下,您只需按 Enter 即可使用执行 MCP 服务器工具调用的示例查询。

可以在llm_mcp_config.json5中配置示例查询

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/hideya/mcp-client-langchain-py'

If you have feedback or need assistance with the MCP directory API, please join our Discord server