LMStudio-MCP
Claude が LM Studio を介してローカルで実行されている LLM モデルと通信できるようにするモデル制御プロトコル (MCP) サーバー。
概要
LMStudio-MCPは、MCP機能を持つClaudeとローカルで実行されているLM Studioインスタンスの間にブリッジを作成します。これにより、Claudeは以下のことが可能になります。
LM Studio APIの健全性を確認する
利用可能なモデルの一覧
現在ロードされているモデルを取得する
ローカルモデルを使用して補完を生成する
これにより、Claude のインターフェースを介して独自のローカル実行モデルを活用し、Claude の機能とプライベート モデルを組み合わせることができます。
前提条件
Python 3.7以上
LM Studioがインストールされ、モデルがロードされた状態でローカルで実行されている
MCPアクセス権を持つクロード
必要な Python パッケージ (インストールを参照)
インストール
このリポジトリをクローンします:
git clone https://github.com/infinitimeless/LMStudio-MCP.git cd LMStudio-MCP必要なパッケージをインストールします。
pip install requests "mcp[cli]" openai
MCP構成
Claude がこのブリッジに接続するには、MCP 設定を適切に構成する必要があります。次のいずれかを実行できます。
GitHub から直接使用します:
{ "lmstudio-mcp": { "command": "uvx", "args": [ "https://github.com/infinitimeless/LMStudio-MCP" ] } }ローカルインストールを使用する:
{ "lmstudio-mcp": { "command": "/bin/bash", "args": [ "-c", "cd /path/to/LMStudio-MCP && source venv/bin/activate && python lmstudio_bridge.py" ] } }
詳細な MCP 構成手順については、 MCP_CONFIGURATION.mdを参照してください。
使用法
LM Studioアプリケーションを起動し、ポート1234(デフォルト)で実行されていることを確認します。
LM Studioでモデルを読み込む
ローカルで実行している場合(
uvx
を使用しない場合)、LMStudio-MCP サーバーを実行します。python lmstudio_bridge.pyClaudeでは、プロンプトが表示されたら「lmstudio-mcp」を選択してMCPサーバーに接続します。
利用可能な機能
ブリッジは次の機能を提供します。
health_check()
: LM Studio API にアクセスできるかどうかを確認するlist_models()
: LM Studioで利用可能なすべてのモデルのリストを取得します。get_current_model()
: 現在ロードされているモデルを識別するchat_completion(prompt, system_prompt, temperature, max_tokens)
: ローカルモデルからテキストを生成する
既知の制限事項
一部のモデル(例:phi-3.5-mini-instruct_uncensored)には互換性の問題がある可能性があります
このブリッジは現在、LM StudioのOpenAI互換APIエンドポイントのみを使用しています。
モデルの応答は、ローカルにロードされたモデルの機能によって制限されます。
トラブルシューティング
API接続の問題
Claude が LM Studio に接続しようとしたときに 404 エラーを報告した場合:
LM Studio が実行中で、モデルがロードされていることを確認します
LM Studioのサーバーがポート1234で実行されていることを確認します
ファイアウォールが接続をブロックしていないことを確認してください
問題が解決しない場合は、API URL で「localhost」の代わりに「127.0.0.1」を使用してみてください。
モデルの互換性
特定のモデルが正しく動作しない場合は:
一部のモデルはOpenAIチャット補完APIフォーマットを完全にサポートしていない可能性があります
問題のあるモデルに対して、異なるパラメータ値(温度、max_tokens)を試してください。
問題が解決しない場合は、より互換性のあるモデルへの切り替えを検討してください
より詳細なトラブルシューティングのヘルプについては、 TROUBLESHOOTING.md を参照してください。
ライセンス
マサチューセッツ工科大学
謝辞
このプロジェクトはもともと「Claude-LMStudio-Bridge_V2」として開発され、「LMStudio-MCP」に名前が変更され、オープンソース化されました。
This server cannot be installed
local-only server
The server can only run on the client's local machine because it depends on local resources.
Claude が LM Studio を介してローカルで実行されている LLM モデルと通信できるようにするブリッジ。これにより、ユーザーは Claude のインターフェースを通じてプライベート モデルを活用できるようになります。
Related MCP Servers
- -securityAlicense-qualityEnables seamless integration between Ollama's local LLM models and MCP-compatible applications, supporting model management and chat interactions.Last updated -75100AGPL 3.0
- AsecurityFlicenseAqualityA bridge that enables seamless integration of Ollama's local LLM capabilities into MCP-powered applications, allowing users to manage and run AI models locally with full API coverage.Last updated -1072
- -securityAlicense-qualityA lightweight bridge extension that enables Claude Desktop to connect to VSCode workspaces via Model Context Protocol, allowing Claude to read and write files, create directories, and list contents in your workspace.Last updated -8MIT License
- -securityFlicense-qualityAn MCP server that allows Claude to interact with local LLMs running in LM Studio, providing access to list models, generate text, and use chat completions through local models.Last updated -10