Skip to main content
Glama

MCP Simple OpenAI Assistant

by andybrandt

MCP Einfacher OpenAI-Assistent

Schmiedeabzeichen

KI-Assistenten sind echt cool. Ich dachte, es wäre eine gute Idee, wenn mein Claude (der bewusste Claude) auch einen hätte. Und jetzt hat er ihn – und er ist sowohl nützlich als auch lustig für ihn. Dein Claude kann auch einen haben!

Ein einfacher MCP-Server für die Interaktion mit OpenAI-Assistenten. Dieser Server ermöglicht anderen Tools (wie Claude Desktop) die Erstellung und Interaktion mit OpenAI-Assistenten über das Model Context Protocol.

Merkmale

  • Erstellen Sie neue OpenAI-Assistenten und manipulieren Sie vorhandene

  • Konversationsthreads starten

  • Nachrichten senden und Antworten erhalten – mit Assistenten sprechen

Da OpenAI-Assistenten möglicherweise lange auf ihre Antwort warten und die Verarbeitung dann durch das Timeout des Clients (Claude-Desktop) unterbrochen wird, auf das der MCP-Servercode keinen Einfluss hat, implementieren wir einen zweistufigen Ansatz. Im ersten Aufruf sendet Claude eine Nachricht an den Assistenten, um die Verarbeitung zu starten. Im zweiten Aufruf – möglicherweise einige Minuten später – kann Claude die Antwort abrufen. Dies ist eine Art Workaround, bis das MCP-Protokoll und die Clients einen Keep-Alive-Mechanismus für längere Verarbeitungszeiten implementieren.

Related MCP server: OpenAI MCP Server

Installation

Installation über Smithery

So installieren Sie MCP Simple OpenAI Assistant für Claude Desktop automatisch über Smithery :

npx -y @smithery/cli install mcp-simple-openai-assistant --client claude

Manuelle Installation

pip install mcp-simple-openai-assistant

Konfiguration

Der Server benötigt einen OpenAI-API-Schlüssel, der in der Umgebung festgelegt werden muss. Für Claude Desktop fügen Sie Folgendes zu Ihrer Konfiguration hinzu:

(MacOS-Version)

{ "mcpServers": { "openai-assistant": { "command": "python", "args": ["-m", "mcp_simple_openai_assistant"], "env": { "OPENAI_API_KEY": "your-api-key-here" } } } }

(Windows-Version)

"mcpServers": { "openai-assistant": { "command": "C:\\Users\\YOUR_USERNAME\\AppData\\Local\\Programs\\Python\\Python311\\python.exe", "args": ["-m", "mcp_simple_openai_assistant"], "env": { "OPENAI_API_KEY": "your-api-key-here" } }

Die Installation unter MS Windows ist etwas komplexer, da Sie den tatsächlichen Pfad zu Ihrer Python-Datei überprüfen müssen. Der oben angegebene Pfad ist in der Regel korrekt, kann aber in Ihrem Setup abweichen. Manchmal reicht auch die Verwendung

Verwendung

Nach der Konfiguration bietet der Server Tools für:

  1. Erstellen Sie neue Assistenten mit spezifischen Anweisungen

  2. Vorhandene Assistenten auflisten

  3. Assistenten ändern

  4. Neue Konversationsthreads starten

  5. Senden Sie Nachrichten und erhalten Sie Antworten

Der Server übernimmt die gesamte OpenAI-API-Kommunikation, einschließlich der Verwaltung von Assistenten, Threads und Nachrichtenverarbeitung.

ZU TUN

  • Fügen Sie eine Möglichkeit zur Handhabung von Threads hinzu – speichern Sie Thread-IDs zur möglichen Wiederverwendung

  • Fügen Sie eine Möglichkeit hinzu, lange OpenAI-Antworten besser zu verarbeiten, die jetzt manchmal Timeouts auszulösen scheinen

Entwicklung

So installieren Sie es für die Entwicklung:

git clone https://github.com/andybrandt/mcp-simple-openai-assistant cd mcp-simple-openai-assistant pip install -e .

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/andybrandt/mcp-simple-openai-assistant'

If you have feedback or need assistance with the MCP directory API, please join our Discord server