Skip to main content
Glama

Model Context Protocol (MCP) Server

by hideya

LangChain / Python を使用した MCP クライアントライセンス: MIT

このシンプルなモデル コンテキスト プロトコル (MCP)クライアントは、LangChain ReAct Agent による MCP サーバー ツールの使用方法を示します。

これは、 langchain_mcp_toolsのユーティリティ関数convert_mcp_to_langchain_tools()を活用します。
この関数は、指定された複数の MCP サーバーの並列初期化を処理し、使用可能なツールを LangChain 互換ツールのリスト ( List[BaseTool] ) に変換します。

現在、Anthropic、OpenAI、Groq の LLM がサポートされています。

このMCPクライアントのTypescriptバージョンはここから入手できます。

前提条件

  • Python 3.11以上

  • [オプション] PythonパッケージベースのMCPサーバーを実行するためにuvがインストールされている

  • [オプション] Node.js パッケージベースの MCP サーバーを実行するためのnpm 7+ (

  • 必要に応じてAnthropicOpenAIGroqからの API キー

Related MCP server: OpenAPI MCP Server

設定

  1. 依存関係をインストールします:

    make install
  2. API キーの設定:

    cp .env.template .env
    • 必要に応じて.envを更新します。

    • .gitignoreは、資格情報の誤ったコミットを防ぐために.env無視するように設定されています。

  3. 必要に応じて、LLM および MCP サーバーの設定llm_mcp_config.json5を構成します。

    • MCP サーバーの構成ファイル形式はClaude for Desktopと同じ構造に従いますが、1 つの違いがあります。キー名mcpServersは、JSON 構成ファイルで一般的に使用される snake_case 規則に従うためにmcp_serversに変更されています。

    • ファイル形式はJSON5で、コメントと末尾のコンマが許可されます。

    • 形式はさらに拡張され、 ${...}表記が対応する環境変数の値に置き換えられます。

    • すべての資格情報と個人情報を.envファイルに保存し、必要に応じて${...}表記で参照します。

使用法

アプリを実行します:

make start

初回実行時には多少時間がかかります。

詳細モードで実行:

make start-v

コマンドラインオプションを参照してください:

make start-h

プロンプトで Enter キーを押すだけで、MCP サーバー ツールの呼び出しを実行するサンプル クエリを使用できます。

クエリの例はllm_mcp_config.json5で設定できます。

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/hideya/mcp-client-langchain-py'

If you have feedback or need assistance with the MCP directory API, please join our Discord server