Ontologie MCP
Ontology MCP ist ein Model Context Protocol (MCP)-Server, der die SPARQL-Endpunkte und Ollama-Modelle von GraphDB mit Claude verbindet. Mit diesem Tool kann Claude Ontologiedaten abfragen und bearbeiten und verschiedene KI-Modelle nutzen.
Hauptmerkmale
SPARQL-bezogene Funktionen
- SPARQL-Abfrage ausführen (
mcp_sparql_execute_query
) - Führen Sie eine SPARQL-Update-Abfrage aus (
mcp_sparql_update
) - Repositorys auflisten (
mcp_sparql_list_repositories
) - Abfrage der Graphenliste (
mcp_sparql_list_graphs
) - Ressourceninformationen abrufen (
mcp_sparql_get_resource_info
)
Funktionen im Zusammenhang mit dem Ollama-Modell
- Führen Sie das Modell aus (
mcp_ollama_run
) - Modellinformationen prüfen (
mcp_ollama_show
) - Modell herunterladen (
mcp_ollama_pull
) - Modellliste abrufen (
mcp_ollama_list
) - Modell löschen (
mcp_ollama_rm
) - Chat-Abschluss (
mcp_ollama_chat_completion
) - Containerstatus prüfen (
mcp_ollama_status
)
OpenAI-bezogene Funktionen
- Chat abgeschlossen (
mcp_openai_chat
) - Bild erstellen (
mcp_openai_image
) - Text-to-Speech (
mcp_openai_tts
) - Sprache-zu-Text (
mcp_openai_transcribe
) - Einbettung generieren (
mcp_openai_embedding
)
Google Gemini-bezogene Funktionen
- Text generieren (
mcp_gemini_generate_text
) - Chat-Abschluss (
mcp_gemini_chat_completion
) - Modellliste abrufen (
mcp_gemini_list_models
) - ~~Bilder generieren (
mcp_gemini_generate_images
) – Imagen-Modell verwenden~~ (derzeit deaktiviert) - ~~Videos generieren (
mcp_gemini_generate_videos
) – Veo-Modelle verwenden~~ (derzeit deaktiviert) - ~~Multimodalen Inhalt generieren (
mcp_gemini_generate_multimodal_content
)~~ (derzeit deaktiviert)
Hinweis : Die Funktionen zur Bild- und Videoerstellung sowie zur multimodalen Inhaltserstellung von Gemini sind derzeit aufgrund von API-Kompatibilitätsproblemen deaktiviert.
Unterstützte Gemini-Modelle
Modelltransformation | Eingang | Leistungsabgabe | Optimierungsziel |
---|---|---|---|
Gemini 2.5 Flash-Vorschau gemini-2.5-flash-preview-04-17 | Audio, Bilder, Video, Text | Text | Adaptives Denken, Kosteneffizienz |
Gemini 2.5 Pro Vorschau gemini-2.5-pro-preview-03-25 | Audio, Bilder, Video, Text | Text | Verbessertes Denken und Schlussfolgern, multimodales Verständnis, fortgeschrittenes Kodieren |
Gemini 2.0 Flash gemini-2.0-flash | Audio, Bilder, Video, Text | Text, Bilder (experimentell), Audio (demnächst verfügbar) | Fähigkeiten der nächsten Generation, Geschwindigkeit, Denken, Echtzeit-Streaming, multimodale Erstellung |
Gemini 2.0 Flash-Lite gemini-2.0-flash-lite | Audio, Bilder, Video, Text | Text | Kostengünstig und mit geringer Latenz |
Gemini 1.5 Flash gemini-1.5-flash | Audio, Bilder, Video, Text | Text | Schnelle und vielseitige Leistung für eine Vielzahl von Aufgaben |
Gemini 1.5 Flash-8B gemini-1.5-flash-8b | Audio, Bilder, Video, Text | Text | Aufgaben mit hohem Volumen und geringer Intelligenz |
Gemini 1.5 Pro gemini-1.5-pro | Audio, Bilder, Video, Text | Text | Komplexe Denkaufgaben, die mehr Intelligenz erfordern |
Gemini-Einbettung gemini-embedding-exp | Text | Texteinbettung | Messen der Relevanz von Textzeichenfolgen |
Bild 3 imagen-3.0-generate-002 | Text | Bild | Googles fortschrittlichstes Bildgenerierungsmodell |
Veo 2 veo-2.0-generate-001 | Text, Bilder | Video | Erstellen Sie hochwertige Videos |
Gemini 2.0 Flash Live gemini-2.0-flash-live-001 | Audio, Video, Text | Text, Audio | Zweiwege-Sprach- und Videointeraktion mit geringer Latenz |
HTTP-Anforderungsfunktionen
- Führen Sie HTTP-Anfragen aus (
mcp_http_request
) – kommunizieren Sie mit externen APIs über verschiedene HTTP-Methoden wie GET, POST, PUT, DELETE usw.
Erste Schritte
1. Klonen Sie das Repository
2. Führen Sie den GraphDB Docker-Container aus
Starten Sie den GraphDB-Server, indem Sie den folgenden Befehl aus dem Stammverzeichnis des Projekts ausführen:
Die GraphDB-Weboberfläche läuft unter http://localhost:7200 .
3. Erstellen und Ausführen des MCP-Servers
4. RDF-Daten importieren
Gehen Sie zur GraphDB-Weboberfläche ( http://localhost:7200 ) und führen Sie Folgendes aus:
- Erstellen Sie ein Repository:
- „Setup“ → „Repositorys“ → „Neues Repository erstellen“
- Repository-ID:
schemaorg-current-https
(oder ein beliebiger Name) - Repository-Titel: „Schema.org“
- Klicken Sie auf „Erstellen“
- Beispieldaten abrufen:
- Wählen Sie das von Ihnen erstellte Repository aus
- „Importieren“ → „RDF“ → „RDF-Dateien hochladen“
- Laden Sie eine Beispieldatei in das
imports
hoch (z. B.imports/example.ttl
). - Klicken Sie auf „Importieren“
Hinweis : Das Projekt enthält Beispiel-RDF-Dateien im
imports
.
5. Claude Desktop einrichten
Um Ontology MCP in Claude Desktop zu verwenden, müssen Sie die MCP-Einstellungsdatei aktualisieren:
- Öffnen Sie die Einstellungsdatei von Claude Desktop:
- Windows:
%AppData%\Claude\claude_desktop_config.json
- macOS:
~/Library/Application Support/Claude/claude_desktop_config.json
- Linux:
~/.config/Claude/claude_desktop_config.json
- Windows:
- Fügen Sie die folgenden Einstellungen hinzu:
WICHTIG : Ändern Sie den Pfad in „args“ in den tatsächlichen absoluten Pfad zum Build-Verzeichnis Ihres Projekts.
- Starten Sie Claude Desktop neu
Lizenz
Dieses Projekt wird unter der MIT-Lizenz bereitgestellt. Weitere Einzelheiten finden Sie in der Lizenzdatei .
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Tools
Ein Model Context Protocol (MCP)-Server, der die SPARQL-Endpunkte und Ollama-Modelle von GraphDB mit Claude verbindet, sodass Claude Ontologiedaten abfragen und bearbeiten und gleichzeitig verschiedene KI-Modelle nutzen kann.
Related MCP Servers
- -securityAlicense-qualityA MCP server that exposes GraphQL schema information to LLMs like Claude. This server allows an LLM to explore and understand large GraphQL schemas through a set of specialized tools, without needing to load the whole schema into the contextLast updated -639JavaScriptMIT License
- AsecurityAlicenseAqualityA Model Context Protocol (MCP) server that integrates Claude with the Terraform Cloud API, allowing Claude to manage your Terraform infrastructure through natural conversation.Last updated -2514PythonMIT License
- AsecurityAlicenseAqualityA Model Context Protocol (MCP) server that enables Claude or other LLMs to fetch content from URLs, supporting HTML, JSON, text, and images with configurable request parameters.Last updated -31PythonMIT License
- AsecurityFlicenseAqualityA Model Context Protocol (MCP) server that integrates with OmniFocus to enable Claude (or other MCP-compatible AI assistants) to interact with your tasks and projects.Last updated -767564TypeScript