OpenAI MCP サーバー
MCPプロトコルを使用して、Claudeから直接OpenAIモデルをクエリできます。このフォークは、メッセージ処理が改善されたo3-miniおよびgpt-4o-miniモデルのサポートを追加します。
クライン自動インストール
Related MCP server: MCP OpenAI Server
特徴
OpenAIのAPIとの直接統合
複数のモデルのサポート:
o3-mini(デフォルト):簡潔な応答に最適化
gpt-4o-mini: より詳細な応答のための強化モデル
設定可能なメッセージフォーマット
エラー処理とログ記録
MCPプロトコルによるシンプルなインターフェース
インストール
Smithery経由でインストール
Smithery経由で Claude Desktop 用の OpenAI MCP Server を自動的にインストールするには:
手動インストール
リポジトリのクローンを作成します:
Claude デスクトップを構成する:
このサーバーを既存のMCP設定に追加します。注: 既存のMCPサーバーは設定にそのまま残し、このサーバーをそれらと一緒に追加するだけです。
位置:
macOS:
~/Library/Application Support/Claude/claude_desktop_config.jsonWindows:
%APPDATA%/Claude/claude_desktop_config.jsonLinux: デフォルトのMCP設定の場所については、ホームディレクトリ(
~/)を確認してください。
OpenAI APIキーを取得する:
OpenAIのウェブサイトをご覧ください
アカウントを作成するかログインしてください
API設定に移動する
新しいAPIキーを生成する
上記のように設定ファイルにキーを追加します
クロードを再起動:
設定を更新した後、変更を有効にするためにClaudeを再起動します。
使用法
サーバーは、OpenAIモデルのクエリに使用できるツールask-openaiを1つ提供しています。Claudeでは、use_mcp_tool コマンドを使用して直接使用できます。
モデル比較
o3-mini(デフォルト)
最適な用途: 素早く簡潔な回答
スタイル: 直接的かつ効率的
応答例:
Python's asyncio provides non-blocking, collaborative multitasking. Key features: 1. Event Loop – Schedules and runs asynchronous tasks 2. Coroutines – Functions you can pause and resume 3. Tasks – Run coroutines concurrently 4. Futures – Represent future results 5. Non-blocking I/O – Efficient handling of I/O operations
gpt-4o-ミニ
最適な用途: より包括的な説明
スタイル: 詳細かつ徹底的
応答例:
Python's asyncio library provides a comprehensive framework for asynchronous programming. It includes an event loop for managing tasks, coroutines for writing non-blocking code, tasks for concurrent execution, futures for handling future results, and efficient I/O operations. The library also provides synchronization primitives and high-level APIs for network programming.
応答フォーマット
ツールは標準化された形式で応答を返します。
トラブルシューティング
サーバーが見つかりません:
設定内のPYTHONPATHが正しいディレクトリを指していることを確認してください
Pythonとpipが正しくインストールされていることを確認する
エラーを確認するには、
python -m src.mcp_server_openai.server --openai-api-key your-key-here直接実行してみてください。
認証エラー:
OpenAI APIキーが有効であることを確認してください
キーがargs配列に正しく渡されていることを確認する
キーに余分なスペースや文字がないことを確認してください
モデルエラー:
サポートされているモデル(o3-mini または gpt-4o-mini)を使用していることを確認してください
クエリが空でないことを確認してください
トークン制限を超えていないことを確認する
発達
オリジナルからの変更点
o3-miniおよびgpt-4o-miniモデルのサポートを追加しました
メッセージのフォーマットの改善
互換性向上のため温度パラメータを削除しました
詳細な使用例を含むドキュメントを更新しました
モデルの比較と応答例を追加しました
強化されたインストール手順
トラブルシューティングガイドを追加しました
ライセンス
MITライセンス