Servidor MCP de Deepseek Thinker
Un proveedor MCP (Protocolo de Contexto de Modelo) que proporciona contenido de razonamiento de Deepseek a clientes de IA compatibles con MCP, como Claude Desktop. Permite el acceso a los procesos de pensamiento de Deepseek desde el servicio API de Deepseek o desde un servidor Ollama local.
Características principales
- 🤖 Soporte de modo dual
- Compatibilidad con el modo API de OpenAI
- Compatibilidad con el modo local de Ollama
- 🎯 Razonamiento enfocado
- Captura el proceso de pensamiento de Deepseek
- Proporciona una salida de razonamiento
Herramientas disponibles
pensador de búsqueda profunda
- Descripción : Realice razonamiento utilizando el modelo Deepseek
- Parámetros de entrada :
originPrompt
(cadena): mensaje original del usuario
- Devuelve : Respuesta de texto estructurada que contiene el proceso de razonamiento
Configuración del entorno
Modo API de OpenAI
Establezca las siguientes variables de entorno:
Modo Ollama
Establezca la siguiente variable de entorno:
Uso
Integración con AI Client, como Claude Desktop
Agregue la siguiente configuración a su claude_desktop_config.json
:
Usando el modo Ollama
Configuración del servidor local
Configuración de desarrollo
Preguntas frecuentes
Respuesta como esta: "Error MCP -32001: Se agotó el tiempo de solicitud"
Este error ocurre cuando la respuesta de la API de Deepseek es demasiado lenta o cuando la salida del contenido del razonamiento es demasiado larga, lo que provoca que el servidor MCP agote el tiempo de espera.
Pila tecnológica
- Mecanografiado
- @modelcontextprotocol/sdk
- API de OpenAI
- Ollama
- Zod (validación de parámetros)
Licencia
Este proyecto está licenciado bajo la Licencia MIT. Consulte el archivo de LICENCIA para más detalles.
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Tools
Proporciona contenido de razonamiento a clientes de IA habilitados para MCP mediante la interfaz con la API de Deepseek o un servidor Ollama local, lo que permite un razonamiento enfocado y la visualización del proceso de pensamiento.
- Características principales
- Herramientas disponibles
- Configuración del entorno
- Uso
- Configuración de desarrollo
- Preguntas frecuentes
- Pila tecnológica
- Licencia
Related Resources
Related MCP Servers
- AsecurityAlicenseAqualityThis is a Model Context Protocol (MCP) server adaptation of LangChain Ollama Deep Researcher. It provides the deep research capabilities as MCP tools that can be used within the model context protocol ecosystem, allowing AI assistants to perform in-depth research on topics (locally) via OllamaLast updated -313PythonMIT License
- AsecurityAlicenseAqualityAn MCP server that queries multiple Ollama models and combines their responses, providing diverse AI perspectives on a single question for more comprehensive answers.Last updated -259TypeScriptMIT License
- AsecurityAlicenseAqualityA sophisticated MCP server that provides a multi-dimensional, adaptive reasoning framework for AI assistants, replacing linear reasoning with a graph-based architecture for more nuanced cognitive processes.Last updated -11126TypeScriptMIT License
- -securityFlicense-qualityAn advanced MCP server that implements sophisticated sequential thinking using a coordinated team of specialized AI agents (Planner, Researcher, Analyzer, Critic, Synthesizer) to deeply analyze problems and provide high-quality, structured reasoning.Last updated -224Python