Skip to main content
Glama

DeepSeek MCP Server

DeepSeek MCP 服务器

DeepSeek API 的模型上下文协议 (MCP) 服务器,允许 DeepSeek 强大的语言模型与 Claude Desktop 等 MCP 兼容应用程序无缝集成。

匿名使用 DeepSeek API——在另一端只能看到代理

安装

通过 Smithery 安装

要通过Smithery自动为 Claude Desktop 安装 DeepSeek MCP 服务器:

npx -y @smithery/cli install @dmontgomery40/deepseek-mcp-server --client claude

手动安装

npm install -g deepseek-mcp-server

与 Claude Desktop 一起使用

将其添加到您的claude_desktop_config.json中:

{ "mcpServers": { "deepseek": { "command": "npx", "args": [ "-y", "deepseek-mcp-server" ], "env": { "DEEPSEEK_API_KEY": "your-api-key" } } } }

特征

注意:服务器会智能地处理这些自然语言请求,并将它们映射到适当的配置更改。您还可以查询当前设置和可用模型:

  • 用户:“有哪些型号可供选择?”
    • 响应:通过模型资源显示可用模型及其功能的列表。
  • 用户:“我有哪些配置选项?”
    • 响应:通过 model-config 资源列出所有可用的配置选项。
  • 用户:“当前温度设置是多少?”
    • 响应:显示当前温度设置。
  • 用户:“开始多轮对话。使用以下设置:模型:‘deepseek-chat’,不要太有创意,并允许 8000 个令牌。”
    • 响应:使用指定的设置开始多轮对话。

如果 R1 发生故障,则自动模型回退

  • 如果主模型(R1)发生故障(在服务器中称为deepseek-reasoner ),服务器将自动尝试使用 v3(在服务器中称为deepseek-chat

注意:您也可以随时来回切换,只需给出提示并说“使用deepseek-reasoner ”或“使用deepseek-chat

  • 建议将 V3 用于一般用途,而将 R1 用于技术性更强、更复杂的查询,主要是因为速度和令牌使用

可用模型和配置的资源发现:

  • 自定义模型选择
  • 温度控制(0.0 - 2.0)
  • 最大代币限制
  • 顶部 P 采样(0.0 - 1.0)
  • 出场惩罚 (-2.0 - 2.0)
  • 频率惩罚(-2.0 - 2.0)

增强的对话功能

多轮对话支持:

  • 维护跨交易所的完整消息历史记录和上下文
  • 在整个对话过程中保留配置设置
  • 自动处理复杂的对话流程和后续链

此功能对于两个关键用例特别有价值:

  1. **训练与微调:**由于 DeepSeek 是开源的,许多用户正在训练自己的版本。多轮对话支持提供了格式正确的对话数据,这对于训练高质量的对话模型至关重要。
  2. **复杂交互:**对于生产用途,这有助于管理上下文至关重要的较长对话:
    • 多步骤推理问题
    • 交互式故障排除会议
    • 详细的技术讨论
    • 任何早期消息的上下文都会影响后续响应的情况

该实现在后台处理所有上下文管理和消息格式,让您专注于实际交互而不是维护对话状态的技术细节。

使用 MCP Inspector 进行测试

您可以使用 MCP Inspector 工具在本地测试服务器:

  1. 构建服务器:
    npm run build
  2. 使用 MCP Inspector 运行服务器:
    # Make sure to specify the full path to the built server npx @modelcontextprotocol/inspector node ./build/index.js

检查器将在您的浏览器中打开,并通过 stdio 传输连接到服务器。您可以:

  • 查看可用工具
  • 使用不同的参数测试聊天完成情况
  • 调试服务器响应
  • 监控服务器性能

注意:服务器默认使用DeepSeek的R1模型(deepseek-reasoner),该模型为推理和通用任务提供了最先进的性能。

执照

麻省理工学院

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

允许将 DeepSeek 的语言模型与 Claude Desktop 等 MCP 兼容应用程序无缝集成,支持模型选择、温度控制和具有自动模型回退的多轮对话等功能。

  1. 匿名使用 DeepSeek API——在另一端只能看到代理
    1. 安装
      1. 通过 Smithery 安装
      2. 手动安装
      3. 与 Claude Desktop 一起使用
    2. 特征
      1. 如果 R1 发生故障,则自动模型回退
      2. 可用模型和配置的资源发现:
    3. 增强的对话功能
      1. 使用 MCP Inspector 进行测试
        1. 执照

          Related MCP Servers

          • A
            security
            A
            license
            A
            quality
            Enables integration of DeepSeek's language models with MCP-compatible applications, offering features like chat completion, custom model selection, and parameter control for enhancing language-based interactions.
            Last updated -
            2
            45
            263
            JavaScript
            MIT License
          • A
            security
            A
            license
            A
            quality
            Enables integration with OpenAI models through the MCP protocol, supporting concise and detailed responses for use with Claude Desktop.
            Last updated -
            1
            2
            Python
            MIT License
            • Apple
            • Linux
          • -
            security
            A
            license
            -
            quality
            A Model Control Protocol server implementation that allows Claude Desktop to use Deepseek models running in Docker, enabling seamless integration between Claude Desktop and Deepseek's language models.
            Last updated -
            4
            Python
            MIT License
          • A
            security
            F
            license
            A
            quality
            A server built on mcp-framework that enables integration with Claude Desktop through the Model Context Protocol.
            Last updated -
            1
            1
            • Apple

          View all related MCP servers

          MCP directory API

          We provide all the information about MCP servers via our MCP API.

          curl -X GET 'https://glama.ai/api/mcp/v1/servers/liuchongchong1995/deepseek-mcp-server'

          If you have feedback or need assistance with the MCP directory API, please join our Discord server