Skip to main content
Glama

Multi LLM Cross-Check MCP Server

マルチLLMクロスチェックMCPサーバー

鍛冶屋のバッジ複数のLLMプロバイダーからの応答を同時にクロスチェックできるモデル制御プロトコル(MCP)サーバー。このサーバーは、Claude DesktopとMCPサーバーとして統合され、異なるLLM APIへのクエリを統一されたインターフェースで提供します。

特徴

  • 複数の LLM プロバイダーを並列にクエリする

  • 現在サポートされています:

    • OpenAI(チャットGPT)

    • 人類学的(クロード)

    • 困惑AI

    • Google(ジェミニ)

  • 非同期並列処理による高速応答

  • Claude Desktopとの簡単な統合

Related MCP server: Parquet MCP Server

前提条件

  • Python 3.8以上

  • 使用したいLLMプロバイダーのAPIキー

  • uv パッケージ マネージャー ( pip install uvでインストール)

インストール

Smithery経由でインストール

Smithery経由で Claude Desktop 用の Multi LLM Cross-Check Server を自動的にインストールするには:

npx -y @smithery/cli install @lior-ps/multi-llm-cross-check-mcp-server --client claude

手動インストール

  1. このリポジトリをクローンします:

git clone https://github.com/lior-ps/multi-llm-cross-check-mcp-server.git cd multi-llm-cross-check-mcp-server
  1. UV 環境を初期化し、要件をインストールします。

uv venv uv pip install -r requirements.txt
  1. Claude Desktop で構成: Claude Desktop 構成ディレクトリに、次の内容を含むclaude_desktop_config.jsonという名前のファイルを作成します。

    { "mcp_servers": [ { "command": "uv", "args": [ "--directory", "/multi-llm-cross-check-mcp-server", "run", "main.py" ], "env": { "OPENAI_API_KEY": "your_openai_key", // Get from https://platform.openai.com/api-keys "ANTHROPIC_API_KEY": "your_anthropic_key", // Get from https://console.anthropic.com/account/keys "PERPLEXITY_API_KEY": "your_perplexity_key", // Get from https://www.perplexity.ai/settings/api "GEMINI_API_KEY": "your_gemini_key" // Get from https://makersuite.google.com/app/apikey } } ] }

    注記:

    1. 使用するLLMプロバイダーのAPIキーのみを追加してください。APIキーが設定されていないプロバイダーはサーバーによってスキップされます。

    2. コマンドフィールドに uv 実行ファイルへのフルパスを入力する必要があるかもしれません。これは、MacOS/Linuxではwhich uv 、Windowsではwhere uv実行することで取得できます。

MCPサーバーの使用

設定が完了したら:

  1. Claude Desktopを開くとサーバーが自動的に起動します

  2. 「他のLLMとクロスチェックする」ように依頼することで、会話の中でcross_checkツールを使用することができます。

  3. プロンプトを提供すると、構成されたすべてのLLMプロバイダーからの応答が返されます。

APIレスポンスフォーマット

サーバーは、各 LLM プロバイダーからの応答を含む辞書を返します。

{ "ChatGPT": { ... }, "Claude": { ... }, "Perplexity": { ... }, "Gemini": { ... } }

エラー処理

  • 特定のLLMにAPIキーが提供されていない場合、そのプロバイダーはスキップされます。

  • APIエラーがキャッチされ、レスポンスで返されます

  • 各 LLM の応答は独立しているため、1 つのプロバイダーのエラーが他のプロバイダーに影響を与えることはありません。

貢献

貢献を歓迎します!お気軽にプルリクエストを送信してください。

ライセンス

このプロジェクトは MIT ライセンスに基づいてライセンスされています - 詳細については LICENSE ファイルを参照してください。

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/lior-ps/multi-llm-cross-check-mcp-server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server