Unichat MCP-Server in TypeScript
Auch in Python verfügbar
Senden Sie Anfragen an OpenAI, MistralAI, Anthropic, xAI, Google AI oder DeepSeek mithilfe des MCP-Protokolls über ein Tool oder vordefinierte Eingabeaufforderungen. API-Schlüssel des Anbieters erforderlich.
Sowohl STDIO- als auch SSE-Transportmechanismen werden über Argumente unterstützt.
Werkzeuge
Der Server implementiert ein Tool:
unichat: Senden Sie eine Anfrage an unichatNimmt "Nachrichten" als erforderliche String-Argumente an
Gibt eine Antwort zurück
Eingabeaufforderungen
code_reviewÜberprüfen Sie den Code auf bewährte Methoden, potenzielle Probleme und Verbesserungen
Argumente:
code(Zeichenfolge, erforderlich): Der zu überprüfende Code"
document_codeGenerieren Sie Dokumentation für Code, einschließlich Docstrings und Kommentaren
Argumente:
code(Zeichenfolge, erforderlich): Der zu kommentierende Code"
explain_codeErklären Sie im Detail, wie ein Codeteil funktioniert
Argumente:
code(Zeichenfolge, erforderlich): Der zu erklärende Code"
code_reworkWenden Sie die gewünschten Änderungen am bereitgestellten Code an
Argumente:
changes(Zeichenfolge, optional): Die anzuwendenden Änderungen"code(Zeichenfolge, erforderlich): Der zu überarbeitende Code"
Related MCP server: OpenAI API MCP Server
Entwicklung
Installieren Sie Abhängigkeiten:
Erstellen Sie den Server:
Für die Entwicklung mit automatischem Rebuild:
Ausführen von Evaluierungen
Das Evals-Paket lädt einen MCP-Client, der anschließend die Datei index.ts ausführt, sodass zwischen den Tests kein Neuaufbau erforderlich ist. Sie können Umgebungsvariablen laden, indem Sie dem Befehl npx voranstellen. Die vollständige Dokumentation finden Sie hier .
Installation
Installation über Smithery
So installieren Sie den Unichat MCP-Server für Claude Desktop automatisch über Smithery :
Manuelle Installation
Zur Verwendung mit Claude Desktop fügen Sie die Serverkonfiguration hinzu:
Unter MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json Unter Windows: %APPDATA%/Claude/claude_desktop_config.json
Lokal ausführen:
Lauf veröffentlicht:
Läuft standardmäßig in STDIO oder mit dem Argument
--stdio. Für die Ausführung in SSE fügen Sie das Argument--ssehinzu.
Unterstützte Modelle:
Eine Liste der aktuell unterstützten Modelle, die als
"YOUR_PREFERRED_MODEL_NAME"verwendet werden können, finden Sie hier . Bitte fügen Sie den entsprechenden API-Schlüssel des Anbieters als"YOUR_VENDOR_API_KEY"hinzu.
Beispiel:
Debuggen
Da MCP-Server über stdio kommunizieren, kann das Debuggen eine Herausforderung darstellen. Wir empfehlen die Verwendung des MCP Inspector , der als Paketskript verfügbar ist:
Der Inspector stellt eine URL für den Zugriff auf Debugging-Tools in Ihrem Browser bereit.
Wenn beim Testen im SSE-Modus Timeouts auftreten, ändern Sie die Anforderungs-URL auf der Inspector-Schnittstelle in: http://localhost:3001/sse?timeout=600000
Appeared in Searches
- Using a second LLM to collaborate with a primary LLM for problem-solving and quality improvement
- A list of all remote servers
- A system for task management and integration with AI editors using multiple LLMs
- Tools and Templates for Prompt Management and Workflow Automation
- Information or resources related to 'Prompt'