Онтология MCP
Ontology MCP — это сервер протокола контекста модели (MCP), который подключает конечные точки SPARQL GraphDB и модели Ollama к Claude. Этот инструмент позволяет Клоду запрашивать и обрабатывать данные онтологии, а также использовать различные модели ИИ.
Основные характеристики
Функции, связанные со SPARQL
- Выполнить запрос SPARQL (
mcp_sparql_execute_query
) - Выполнить запрос на обновление SPARQL (
mcp_sparql_update
) - Список репозиториев (
mcp_sparql_list_repositories
) - Запрос списка графов (
mcp_sparql_list_graphs
) - Получить информацию о ресурсе (
mcp_sparql_get_resource_info
)
Особенности, связанные с моделью Ollama
- Запустить модель (
mcp_ollama_run
) - Проверить информацию о модели (
mcp_ollama_show
) - Скачать модель (
mcp_ollama_pull
) - Получить список моделей (
mcp_ollama_list
) - Удалить модель (
mcp_ollama_rm
) - Завершение чата (
mcp_ollama_chat_completion
) - Проверить статус контейнера (
mcp_ollama_status
)
Функции, связанные с OpenAI
- Чат завершен (
mcp_openai_chat
) - Создать изображение (
mcp_openai_image
) - Преобразование текста в речь (
mcp_openai_tts
) - Преобразование речи в текст (
mcp_openai_transcribe
) - Сгенерировать встраивание (
mcp_openai_embedding
)
Функции, связанные с Google Gemini
- Сгенерировать текст (
mcp_gemini_generate_text
) - Завершение чата (
mcp_gemini_chat_completion
) - Получить список моделей (
mcp_gemini_list_models
) - ~~Создание изображений (
mcp_gemini_generate_images
) - с использованием модели Imagen~~ (в настоящее время отключено) - ~~Создание видео (
mcp_gemini_generate_videos
) - Использование моделей Veo~~ (в настоящее время отключено) - ~~Создание мультимодального контента (
mcp_gemini_generate_multimodal_content
)~~ (в настоящее время отключено)
Примечание : функции создания изображений, видео и мультимодального контента Gemini в настоящее время отключены из-за проблем совместимости API.
Поддерживаемые модели Gemini
Трансформация модели | вход | выходная мощность | Цель оптимизации |
---|---|---|---|
Gemini 2.5 Flash Предварительный просмотр gemini-2.5-flash-preview-04-17 | Аудио, изображения, видео, текст | Текст | Адаптивное мышление, экономическая эффективность |
Gemini 2.5 Pro Предварительный просмотр gemini-2.5-pro-preview-03-25 | Аудио, изображения, видео, текст | Текст | Улучшенное мышление и рассуждение, мультимодальное понимание, расширенное кодирование |
Gemini 2.0 Flashgemini gemini-2.0-flash | Аудио, изображения, видео, текст | Текст, изображения (экспериментально), аудио (скоро) | Возможности следующего поколения, скорость, мышление, потоковая передача в реальном времени, мультимодальное создание |
Gemini 2.0 Flash-Lite gemini-2.0-flash-lite | Аудио, изображения, видео, текст | Текст | Экономичность и низкая задержка |
Близнецы 1.5 Флэш gemini-1.5-flash | Аудио, изображения, видео, текст | Текст | Быстрая и универсальная производительность для различных задач |
Близнецы 1.5 Флэш-8Б gemini-1.5-flash-8b | Аудио, изображения, видео, текст | Текст | Задачи большого объема и низкого уровня интеллекта |
Близнецы 1.5 Pro gemini-1.5-pro | Аудио, изображения, видео, текст | Текст | Сложные задачи на рассуждение, требующие большего интеллекта |
Gemini встраивание gemini-embedding-exp | Текст | Встраивание текста | Измерение релевантности текстовых строк |
Изображение 3 imagen-3.0-generate-002 | Текст | изображение | Самая передовая модель генерации изображений от Google |
Veo 2 veo-2.0-generate-001 | Текст, Изображения | видео | Создавайте высококачественные видео |
Gemini 2.0 Flash Live gemini-2.0-flash-live-001 | Аудио, видео, текст | Текст, Аудио | Двустороннее голосовое и видео взаимодействие с малой задержкой |
Функции HTTP-запроса
- Выполнение HTTP-запросов (
mcp_http_request
) — взаимодействие с внешними API с использованием различных HTTP-методов, таких как GET, POST, PUT, DELETE и т. д.
Начать
1. Клонировать репозиторий
2. Запустите Docker-контейнер GraphDB.
Запустите сервер GraphDB, выполнив следующую команду из корневого каталога проекта:
Веб-интерфейс GraphDB работает по адресу http://localhost:7200 .
3. Соберите и запустите сервер MCP.
4. Импорт RDF-данных
Перейдите в веб-интерфейс GraphDB ( http://localhost:7200 ) и выполните следующие действия:
- Создать репозиторий:
- «Настройка» → «Репозитории» → «Создать новый репозиторий»
- Идентификатор репозитория:
schemaorg-current-https
(или любое другое имя по вашему желанию) - Название репозитория: «Schema.org»
- Нажмите «Создать»
- Получить образец данных:
- Выберите созданный вами репозиторий.
- «Импорт» → «RDF» → «Загрузить файлы RDF»
- Загрузите пример файла в каталог
imports
(например,imports/example.ttl
) - Нажмите «Импорт».
Примечание : проект включает примеры RDF-файлов в каталоге
imports
.
5. Настройка Claude Desktop
Чтобы использовать Ontology MCP в Claude Desktop, необходимо обновить файл настроек MCP:
- Откройте файл настроек Claude Desktop:
- Windows:
%AppData%\Claude\claude_desktop_config.json
- macOS:
~/Library/Application Support/Claude/claude_desktop_config.json
- Linux:
~/.config/Claude/claude_desktop_config.json
- Windows:
- Добавьте следующие настройки:
ВАЖНО : Измените путь в `args' на фактический абсолютный путь к каталогу сборки вашего проекта.
- Перезагрузить рабочий стол Клода
Лицензия
Данный проект предоставляется по лицензии MIT. Подробную информацию смотрите в файле ЛИЦЕНЗИЯ .
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Tools
Сервер протокола контекста модели (MCP), который подключает конечные точки SPARQL GraphDB и модели Ollama к Claude, позволяя Claude запрашивать и обрабатывать данные онтологии, используя различные модели ИИ.
Related MCP Servers
- -securityAlicense-qualityA MCP server that exposes GraphQL schema information to LLMs like Claude. This server allows an LLM to explore and understand large GraphQL schemas through a set of specialized tools, without needing to load the whole schema into the contextLast updated -639JavaScriptMIT License
- AsecurityAlicenseAqualityA Model Context Protocol (MCP) server that integrates Claude with the Terraform Cloud API, allowing Claude to manage your Terraform infrastructure through natural conversation.Last updated -2514PythonMIT License
- AsecurityAlicenseAqualityA Model Context Protocol (MCP) server that enables Claude or other LLMs to fetch content from URLs, supporting HTML, JSON, text, and images with configurable request parameters.Last updated -31PythonMIT License
- AsecurityFlicenseAqualityA Model Context Protocol (MCP) server that integrates with OmniFocus to enable Claude (or other MCP-compatible AI assistants) to interact with your tasks and projects.Last updated -767564TypeScript