MCP オラマ
Ollama を Claude Desktop またはその他の MCP クライアントと統合するためのモデル コンテキスト プロトコル (MCP) サーバー。
要件
Python 3.10以上
Ollama がインストールされ、実行中 ( https://ollama.com/download )
少なくとも1つのモデルがOllamaでプルされました(例:
ollama pull llama2
)
Claudeデスクトップの設定
Claude デスクトップ構成に追加します (macOS の場合は~/Library/Application Support/Claude/claude_desktop_config.json
、Windows の場合は%APPDATA%\Claude\claude_desktop_config.json
)。
発達
開発モードでインストールします:
MCP Inspector でテストします。
特徴
サーバーは 4 つの主なツールを提供します。
list_models
- ダウンロードしたすべての Ollama モデルを一覧表示しますshow_model
- 特定のモデルに関する詳細情報を取得しますask_model
- 指定されたモデルに質問する
ライセンス
マサチューセッツ工科大学
local-only server
The server can only run on the client's local machine because it depends on local resources.
MCP Ollama サーバーは、Ollama モデルを MCP クライアントと統合し、ユーザーがモデルを一覧表示したり、詳細情報を取得したり、質問を通じてモデルと対話したりできるようにします。
Related Resources
Related MCP Servers
- -securityFlicense-qualityAn interactive chat interface that combines Ollama's LLM capabilities with PostgreSQL database access through the Model Context Protocol (MCP). Ask questions about your data in natural language and get AI-powered responses backed by real SQL queries.Last updated -58
- -securityAlicense-qualityEnables seamless integration between Ollama's local LLM models and MCP-compatible applications, supporting model management and chat interactions.Last updated -75100AGPL 3.0
- AsecurityAlicenseAqualityAn MCP server that queries multiple Ollama models and combines their responses, providing diverse AI perspectives on a single question for more comprehensive answers.Last updated -264MIT License
- -securityFlicense-qualityA server that enables seamless integration between local Ollama LLM instances and MCP-compatible applications, providing advanced task decomposition, evaluation, and workflow management capabilities.Last updated -6