A
securityA
licenseA
qualityMCP Ollama server integrates Ollama models with MCP clients, allowing users to list models, get detailed information, and interact with them through questions.
Last updated -
3
25
Python
MIT License
🚀 Ollama 和模型上下文协议 (MCP) 之间的强大桥梁,可将 Ollama 的本地 LLM 功能无缝集成到由 MCP 驱动的应用程序中。
将服务器添加到您的 MCP 配置:
MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json
Windows: %APPDATA%/Claude/claude_desktop_config.json
OLLAMA_HOST
:配置自定义 Ollama API 端点(默认值: http ://127.0.0.1:11434 )欢迎贡献!请随意:
MIT 许可证 - 请随意在您自己的项目中使用!
用❤️为 MCP 生态系统打造
local-only server
The server can only run on the client's local machine because it depends on local resources.
这座桥梁可将 Ollama 的本地 LLM 功能无缝集成到 MCP 驱动的应用程序中,让用户能够在本地管理和运行具有完整 API 覆盖的 AI 模型。
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/NightTrek/Ollama-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server