Skip to main content
Glama

Model Context Protocol (MCP) Server

by hideya

Cliente MCP que utiliza LangChain/Python Licencia: MIT

Este sencillo cliente de Protocolo de contexto de modelo (MCP) demuestra el uso de las herramientas del servidor MCP por parte de LangChain ReAct Agent.

Aprovecha una función de utilidad convert_mcp_to_langchain_tools() de langchain_mcp_tools .
Esta función maneja la inicialización paralela de múltiples servidores MCP especificados y convierte sus herramientas disponibles en una lista de herramientas compatibles con LangChain ( List[BaseTool] ).

Actualmente se admiten LLM de Anthropic, OpenAI y Groq.

Una versión mecanografiada de este cliente MCP está disponible aquí

Prerrequisitos

  • Python 3.11+

  • [opcional] uv instalado para ejecutar servidores MCP basados en paquetes Python

  • [opcional] npm 7+ ( para ejecutar servidores MCP basados en paquetes Node.js

  • Claves API de Anthropic , OpenAI y/o Groq según sea necesario

Related MCP server: OpenAPI MCP Server

Configuración

  1. Instalar dependencias:

    make install
  2. Configurar claves API:

    cp .env.template .env
    • Actualice .env según sea necesario.

    • .gitignore está configurado para ignorar .env para evitar confirmaciones accidentales de las credenciales.

  3. Configure los ajustes de los servidores LLM y MCP llm_mcp_config.json5 según sea necesario.

    • El formato del archivo de configuración de los servidores MCP sigue la misma estructura que Claude for Desktop , con una diferencia: el nombre de clave mcpServers se ha cambiado a mcp_servers para seguir la convención snake_case comúnmente utilizada en los archivos de configuración JSON.

    • El formato del archivo es JSON5 , donde se permiten comentarios y comas finales.

    • El formato se amplía aún más para reemplazar las notaciones ${...} con los valores de las variables de entorno correspondientes.

    • Mantenga todas las credenciales y la información privada en el archivo .env y haga referencia a ellas con la notación ${...} según sea necesario.

Uso

Ejecute la aplicación:

make start

La primera vez tarda un poco.

Ejecutar en modo detallado:

make start-v

Ver opciones de la línea de comandos:

make start-h

Cuando se le solicite, puede simplemente presionar Entrar para usar consultas de ejemplo que realizan invocaciones de herramientas de servidor MCP.

Las consultas de ejemplo se pueden configurar en llm_mcp_config.json5

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/hideya/mcp-client-langchain-py'

If you have feedback or need assistance with the MCP directory API, please join our Discord server