Multi-LLM-Cross-Check MCP-Server
Ein Model Control Protocol (MCP)-Server ermöglicht die gleichzeitige Überprüfung von Antworten mehrerer LLM-Anbieter. Dieser Server ist als MCP-Server in Claude Desktop integriert und bietet eine einheitliche Schnittstelle für die Abfrage verschiedener LLM-APIs.
Merkmale
- Mehrere LLM-Anbieter parallel abfragen
- Unterstützt derzeit:
- OpenAI (ChatGPT)
- Anthropisch (Claude)
- Ratlosigkeits-KI
- Google (Gemini)
- Asynchrone Parallelverarbeitung für schnellere Antworten
- Einfache Integration mit Claude Desktop
Voraussetzungen
- Python 3.8 oder höher
- API-Schlüssel für die LLM-Anbieter, die Sie verwenden möchten
- UV-Paketmanager (Installation mit
pip install uv
)
Installation
Installation über Smithery
So installieren Sie Multi LLM Cross-Check Server für Claude Desktop automatisch über Smithery :
Manuelle Installation
- Klonen Sie dieses Repository:
- UV-Umgebung initialisieren und Anforderungen installieren:
- Konfigurieren Sie in Claude Desktop: Erstellen Sie in Ihrem Claude Desktop-Konfigurationsverzeichnis eine Datei mit dem Namen
claude_desktop_config.json
mit folgendem Inhalt:Hinweise:- Sie müssen nur die API-Schlüssel für die LLM-Anbieter hinzufügen, die Sie verwenden möchten. Der Server überspringt alle Anbieter ohne konfigurierte API-Schlüssel.
- Möglicherweise müssen Sie den vollständigen Pfad zur UV-Programmdatei in das Befehlsfeld eingeben. Sie erhalten diesen, indem Sie
which uv
unter MacOS/Linux oderwhere uv
unter Windows ausführen.
Verwenden des MCP-Servers
Nach der Konfiguration:
- Der Server wird automatisch gestartet, wenn Sie Claude Desktop öffnen
- Sie können das Tool
cross_check
in Ihren Gesprächen verwenden, indem Sie darum bitten, „mit anderen LLMs zu vergleichen“. - Geben Sie eine Eingabeaufforderung ein, und es werden Antworten von allen konfigurierten LLM-Anbietern zurückgegeben
API-Antwortformat
Der Server gibt ein Wörterbuch mit Antworten von jedem LLM-Anbieter zurück:
Fehlerbehandlung
- Wenn für einen bestimmten LLM kein API-Schlüssel angegeben wird, wird dieser Anbieter übersprungen
- API-Fehler werden abgefangen und in der Antwort zurückgegeben
- Die Antwort jedes LLM ist unabhängig, sodass Fehler bei einem Anbieter keine Auswirkungen auf andere haben
Beitragen
Beiträge sind willkommen! Senden Sie gerne einen Pull Request.
Lizenz
Dieses Projekt ist unter der MIT-Lizenz lizenziert – Einzelheiten finden Sie in der Datei LICENSE.
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Ein Model Control Protocol-Server, der in Claude Desktop integriert ist, um die gleichzeitige Abfrage und Querprüfung von Antworten mehrerer LLM-Anbieter, darunter OpenAI, Anthropic, Perplexity AI und Google Gemini, zu ermöglichen.
Related MCP Servers
- -securityAlicense-qualityModel Context Protocol (MCP) server implementation that enables Claude Desktop to interact with Google's Gemini AI models.Last updated -191JavaScriptMIT License
- -securityFlicense-qualityA Model Control Protocol server that provides web search capabilities and similarity search functionality for Claude Desktop, allowing users to perform web searches and extract relevant information from previous search results.Last updated -2Python
- -securityAlicense-qualityA Model Context Protocol server that enables Claude to collaborate with Google's Gemini AI models, providing tools for question answering, code review, brainstorming, test generation, and explanations.Last updated -PythonMIT License
- -securityFlicense-qualityA Model Context Protocol server that gives Claude access to multiple AI models (Gemini, OpenAI, OpenRouter) for enhanced code analysis, problem-solving, and collaborative development through AI orchestration with conversations that continue across tasks.Last updated -5,417Python