Cliente MCP que utiliza LangChain/Python 
Este sencillo cliente de Protocolo de contexto de modelo (MCP) demuestra el uso de las herramientas del servidor MCP por parte de LangChain ReAct Agent.
Aprovecha una función de utilidad convert_mcp_to_langchain_tools() de langchain_mcp_tools .
Esta función maneja la inicialización paralela de múltiples servidores MCP especificados y convierte sus herramientas disponibles en una lista de herramientas compatibles con LangChain ( List[BaseTool] ).
Actualmente se admiten LLM de Anthropic, OpenAI y Groq.
Una versión mecanografiada de este cliente MCP está disponible aquí
Prerrequisitos
Python 3.11+
[opcional]
uvinstalado para ejecutar servidores MCP basados en paquetes Python[opcional] npm 7+ ( para ejecutar servidores MCP basados en paquetes Node.js
Claves API de Anthropic , OpenAI y/o Groq según sea necesario
Related MCP server: OpenAPI MCP Server
Configuración
Instalar dependencias:
make installConfigurar claves API:
cp .env.template .envActualice
.envsegún sea necesario..gitignoreestá configurado para ignorar.envpara evitar confirmaciones accidentales de las credenciales.
Configure los ajustes de los servidores LLM y MCP
llm_mcp_config.json5según sea necesario.El formato del archivo de configuración de los servidores MCP sigue la misma estructura que Claude for Desktop , con una diferencia: el nombre de clave
mcpServersse ha cambiado amcp_serverspara seguir la convención snake_case comúnmente utilizada en los archivos de configuración JSON.El formato del archivo es JSON5 , donde se permiten comentarios y comas finales.
El formato se amplía aún más para reemplazar las notaciones
${...}con los valores de las variables de entorno correspondientes.Mantenga todas las credenciales y la información privada en el archivo
.envy haga referencia a ellas con la notación${...}según sea necesario.
Uso
Ejecute la aplicación:
La primera vez tarda un poco.
Ejecutar en modo detallado:
Ver opciones de la línea de comandos:
Cuando se le solicite, puede simplemente presionar Entrar para usar consultas de ejemplo que realizan invocaciones de herramientas de servidor MCP.
Las consultas de ejemplo se pueden configurar en llm_mcp_config.json5