Deepseek Thinker MCP サーバー
MCP(モデルコンテキストプロトコル)プロバイダーは、Claude DesktopなどのMCP対応AIクライアントにDeepseek推論コンテンツを提供します。Deepseek APIサービスまたはローカルOllamaサーバーからDeepseekの思考プロセスへのアクセスをサポートします。
コア機能
- 🤖デュアルモードサポート
- OpenAI APIモードのサポート
- Ollama ローカルモードのサポート
- 🎯集中的な推論
- Deepseekの思考プロセスをキャプチャ
- 推論出力を提供する
利用可能なツール
ディープシークの思想家
- 説明: Deepseekモデルを使用して推論を実行します
- 入力パラメータ:
originPrompt
(文字列): ユーザーの元のプロンプト
- 戻り値: 推論プロセスを含む構造化テキスト応答
環境設定
OpenAI APIモード
次の環境変数を設定します。
オラマモード
次の環境変数を設定します。
使用法
Claude DesktopなどのAIクライアントとの統合
claude_desktop_config.json
に次の構成を追加します。
Ollamaモードの使用
ローカルサーバーの構成
開発セットアップ
よくある質問
応答は次のようになります:「MCP エラー -32001: 要求がタイムアウトしました」
このエラーは、Deepseek API の応答が遅すぎる場合、または推論コンテンツの出力が長すぎる場合に発生し、MCP サーバーがタイムアウトになります。
技術スタック
- タイプスクリプト
- @モデルコンテキストプロトコル/sdk
- オープンAI API
- オラマ
- Zod(パラメータ検証)
ライセンス
このプロジェクトはMITライセンスの下で提供されています。詳細はLICENSEファイルをご覧ください。
Related MCP Servers
- AsecurityAlicenseAqualityThis is a Model Context Protocol (MCP) server adaptation of LangChain Ollama Deep Researcher. It provides the deep research capabilities as MCP tools that can be used within the model context protocol ecosystem, allowing AI assistants to perform in-depth research on topics (locally) via OllamaLast updated -313PythonMIT License
- AsecurityAlicenseAqualityAn MCP server that queries multiple Ollama models and combines their responses, providing diverse AI perspectives on a single question for more comprehensive answers.Last updated -259TypeScriptMIT License
- AsecurityAlicenseAqualityA sophisticated MCP server that provides a multi-dimensional, adaptive reasoning framework for AI assistants, replacing linear reasoning with a graph-based architecture for more nuanced cognitive processes.Last updated -11126TypeScriptMIT License
- -securityFlicense-qualityAn advanced MCP server that implements sophisticated sequential thinking using a coordinated team of specialized AI agents (Planner, Researcher, Analyzer, Critic, Synthesizer) to deeply analyze problems and provide high-quality, structured reasoning.Last updated -224Python