Skip to main content
Glama

Deepseek Thinker MCP Server

by ruixingshi

Deepseek Thinker MCP サーバー

MCP(モデルコンテキストプロトコル)プロバイダーは、Claude DesktopなどのMCP対応AIクライアントにDeepseek推論コンテンツを提供します。Deepseek APIサービスまたはローカルOllamaサーバーからDeepseekの思考プロセスへのアクセスをサポートします。

コア機能

  • 🤖デュアルモードサポート
    • OpenAI APIモードのサポート
    • Ollama ローカルモードのサポート
  • 🎯集中的な推論
    • Deepseekの思考プロセスをキャプチャ
    • 推論出力を提供する

利用可能なツール

ディープシークの思想家

  • 説明: Deepseekモデルを使用して推論を実行します
  • 入力パラメータ:
    • originPrompt (文字列): ユーザーの元のプロンプト
  • 戻り値: 推論プロセスを含む構造化テキスト応答

環境設定

OpenAI APIモード

次の環境変数を設定します。

API_KEY=<Your OpenAI API Key> BASE_URL=<API Base URL>

オラマモード

次の環境変数を設定します。

USE_OLLAMA=true

使用法

Claude DesktopなどのAIクライアントとの統合

claude_desktop_config.jsonに次の構成を追加します。

{ "mcpServers": { "deepseek-thinker": { "command": "npx", "args": [ "-y", "deepseek-thinker-mcp" ], "env": { "API_KEY": "<Your API Key>", "BASE_URL": "<Your Base URL>" } } } }

Ollamaモードの使用

{ "mcpServers": { "deepseek-thinker": { "command": "npx", "args": [ "-y", "deepseek-thinker-mcp" ], "env": { "USE_OLLAMA": "true" } } } }

ローカルサーバーの構成

{ "mcpServers": { "deepseek-thinker": { "command": "node", "args": [ "/your-path/deepseek-thinker-mcp/build/index.js" ], "env": { "API_KEY": "<Your API Key>", "BASE_URL": "<Your Base URL>" } } } }

開発セットアップ

# Install dependencies npm install # Build project npm run build # Run service node build/index.js

よくある質問

応答は次のようになります:「MCP エラー -32001: 要求がタイムアウトしました」

このエラーは、Deepseek API の応答が遅すぎる場合、または推論コンテンツの出力が長すぎる場合に発生し、MCP サーバーがタイムアウトになります。

技術スタック

  • タイプスクリプト
  • @モデルコンテキストプロトコル/sdk
  • オープンAI API
  • オラマ
  • Zod(パラメータ検証)

ライセンス

このプロジェクトはMITライセンスの下で提供されています。詳細はLICENSEファイルをご覧ください。

Install Server
A
security – no known vulnerabilities
F
license - not found
A
quality - confirmed to work

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Deepseek の API またはローカル Ollama サーバーとインターフェイスすることで、MCP 対応 AI クライアントに推論コンテンツを提供し、集中的な推論と思考プロセスの視覚化を可能にします。

  1. コア機能
    1. 利用可能なツール
      1. ディープシークの思想家
    2. 環境設定
      1. OpenAI APIモード
      2. オラマモード
    3. 使用法
      1. Claude DesktopなどのAIクライアントとの統合
      2. Ollamaモードの使用
      3. ローカルサーバーの構成
    4. 開発セットアップ
      1. よくある質問
        1. 応答は次のようになります:「MCP エラー -32001: 要求がタイムアウトしました」
      2. 技術スタック
        1. ライセンス

          Related MCP Servers

          • A
            security
            A
            license
            A
            quality
            This is a Model Context Protocol (MCP) server adaptation of LangChain Ollama Deep Researcher. It provides the deep research capabilities as MCP tools that can be used within the model context protocol ecosystem, allowing AI assistants to perform in-depth research on topics (locally) via Ollama
            Last updated -
            3
            13
            Python
            MIT License
            • Apple
            • Linux
          • A
            security
            A
            license
            A
            quality
            An MCP server that queries multiple Ollama models and combines their responses, providing diverse AI perspectives on a single question for more comprehensive answers.
            Last updated -
            2
            59
            TypeScript
            MIT License
            • Apple
          • A
            security
            A
            license
            A
            quality
            A sophisticated MCP server that provides a multi-dimensional, adaptive reasoning framework for AI assistants, replacing linear reasoning with a graph-based architecture for more nuanced cognitive processes.
            Last updated -
            1
            11
            26
            TypeScript
            MIT License
            • Apple
            • Linux
          • -
            security
            F
            license
            -
            quality
            An advanced MCP server that implements sophisticated sequential thinking using a coordinated team of specialized AI agents (Planner, Researcher, Analyzer, Critic, Synthesizer) to deeply analyze problems and provide high-quality, structured reasoning.
            Last updated -
            224
            Python
            • Linux
            • Apple

          View all related MCP servers

          MCP directory API

          We provide all the information about MCP servers via our MCP API.

          curl -X GET 'https://glama.ai/api/mcp/v1/servers/ruixingshi/deepseek-thinker-mcp'

          If you have feedback or need assistance with the MCP directory API, please join our Discord server