Skip to main content
Glama

LLM Bridge MCP

by sjquant

LLM ブリッジ MCP

LLM Bridge MCPは、AIエージェントが標準化されたインターフェースを介して複数の大規模言語モデルと対話することを可能にします。メッセージ制御プロトコル(MCP)を活用して、異なるLLMプロバイダーへのシームレスなアクセスを提供し、モデル間の切り替えや、同一アプリケーション内での複数のモデルの使用を容易にします。

特徴

  • 複数の LLM プロバイダーへの統合インターフェース:
    • OpenAI(GPTモデル)
    • 人類学的(クロードモデル)
    • Google(ジェミニモデル)
    • ディープシーク
    • ...
  • 型安全性と検証のためにPydantic AIを搭載
  • 温度や最大トークンなどのカスタマイズ可能なパラメータをサポート
  • 使用状況の追跡と指標を提供します

ツール

サーバーは次のツールを実装します。

run_llm( prompt: str, model_name: KnownModelName = "openai:gpt-4o-mini", temperature: float = 0.7, max_tokens: int = 8192, system_prompt: str = "", ) -> LLMResponse
  • prompt : LLMに送信するテキストプロンプト
  • model_name : 使用する特定のモデル(デフォルト: "openai")
  • temperature : ランダム性を制御します(0.0~1.0)
  • max_tokens : 生成するトークンの最大数
  • system_prompt : モデルの動作をガイドするオプションのシステムプロンプト

インストール

Smithery経由でインストール

Smithery経由で Claude Desktop 用の llm-bridge-mcp を自動的にインストールするには:

npx -y @smithery/cli install @sjquant/llm-bridge-mcp --client claude

手動インストール

  1. リポジトリをクローンします。
git clone https://github.com/yourusername/llm-bridge-mcp.git cd llm-bridge-mcp
  1. uvをインストールします (まだインストールされていない場合)。
# On macOS brew install uv # On Linux curl -LsSf https://astral.sh/uv/install.sh | sh # On Windows powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"

構成

API キーを使用してルート ディレクトリに.envファイルを作成します。

OPENAI_API_KEY=your_openai_api_key ANTHROPIC_API_KEY=your_anthropic_api_key GOOGLE_API_KEY=your_google_api_key DEEPSEEK_API_KEY=your_deepseek_api_key

使用法

Claude DesktopまたはCursorと併用

Claude Desktop 構成ファイルまたは.cursor/mcp.jsonにサーバー エントリを追加します。

"mcpServers": { "llm-bridge": { "command": "uvx", "args": [ "llm-bridge-mcp" ], "env": { "OPENAI_API_KEY": "your_openai_api_key", "ANTHROPIC_API_KEY": "your_anthropic_api_key", "GOOGLE_API_KEY": "your_google_api_key", "DEEPSEEK_API_KEY": "your_deepseek_api_key" } } }

トラブルシューティング

よくある問題
1. 「spawn uvx ENOENT」エラー

このエラーは、システムがPATH内でuvx実行ファイルを見つけられない場合に発生します。解決するには、以下の手順に従ってください。

解決策: uvxへのフルパスを使用する

uvx 実行可能ファイルへの完全なパスを見つけます。

# On macOS/Linux which uvx # On Windows where.exe uvx

次に、完全なパスを使用するように MCP サーバー構成を更新します。

"mcpServers": { "llm-bridge": { "command": "/full/path/to/uvx", // Replace with your actual path "args": [ "llm-bridge-mcp" ], "env": { // ... your environment variables } } }

ライセンス

このプロジェクトは MIT ライセンスに基づいてライセンスされています - 詳細については LICENSE ファイルを参照してください。

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Tools

AI エージェントが標準化されたインターフェースを介して複数の LLM プロバイダー (OpenAI、Anthropic、Google、DeepSeek) と対話できるようになり、モデル間の切り替えや同じアプリケーションでの複数のモデルの使用が容易になります。

  1. 特徴
    1. ツール
      1. インストール
        1. Smithery経由でインストール
        2. 手動インストール
      2. 構成
        1. 使用法
          1. Claude DesktopまたはCursorと併用
          2. トラブルシューティング
        2. ライセンス

          Related MCP Servers

          • A
            security
            A
            license
            A
            quality
            Provides integration with OpenRouter.ai, allowing access to various AI models through a unified interface.
            Last updated -
            4
            55
            53
            TypeScript
            Apache 2.0
          • -
            security
            F
            license
            -
            quality
            Facilitates enhanced interaction with large language models (LLMs) by providing intelligent context management, tool integration, and multi-provider AI model coordination for efficient AI-driven workflows.
            Last updated -
            Python
          • -
            security
            F
            license
            -
            quality
            Enables communication and coordination between different LLM agents across multiple systems, allowing specialized agents to collaborate on tasks, share context, and coordinate work through a unified platform.
            Last updated -
            6
            TypeScript
            • Linux
            • Apple
          • A
            security
            A
            license
            A
            quality
            An AI router that connects applications to multiple LLM providers (OpenAI, Anthropic, Google, DeepSeek, Ollama, etc.) with smart model orchestration capabilities, enabling dynamic switching between models for different reasoning tasks.
            Last updated -
            3
            671
            16
            TypeScript
            MIT License
            • Linux
            • Apple

          View all related MCP servers

          MCP directory API

          We provide all the information about MCP servers via our MCP API.

          curl -X GET 'https://glama.ai/api/mcp/v1/servers/sjquant/llm-bridge-mcp'

          If you have feedback or need assistance with the MCP directory API, please join our Discord server