Skip to main content
Glama

DeepView MCP

DeepView МКП

DeepView MCP — это сервер Model Context Protocol, который позволяет таким IDE, как Cursor и Windsurf, анализировать большие кодовые базы, используя обширное контекстное окно Gemini.

Функции

  • Загрузить всю кодовую базу из одного текстового файла (например, созданного с помощью таких инструментов, как repomix)
  • Запросить кодовую базу, используя большое контекстное окно Gemini
  • Подключитесь к IDE, поддерживающим протокол MCP, например, Cursor и Windsurf.
  • Настраиваемый выбор модели Gemini с помощью аргументов командной строки

Предпосылки

Установка

Установка через Smithery

Чтобы автоматически установить DeepView для Claude Desktop через Smithery :

npx -y @smithery/cli install @ai-1st/deepview-mcp --client claude

Использование пипа

pip install deepview-mcp

Использование

Запуск сервера

Примечание: вам не нужно запускать сервер вручную. Эти параметры настраиваются в настройках MCP в вашей IDE (см. ниже).

# Basic usage with default settings deepview-mcp [path/to/codebase.txt] # Specify a different Gemini model deepview-mcp [path/to/codebase.txt] --model gemini-2.0-pro # Change log level deepview-mcp [path/to/codebase.txt] --log-level DEBUG

Параметр файла кодовой базы является необязательным. Если он не указан, вам нужно будет указать его при выполнении запросов.

Параметры командной строки

  • --model MODEL : Укажите модель Gemini для использования (по умолчанию: gemini-2.0-flash-lite)
  • --log-level {DEBUG,INFO,WARNING,ERROR,CRITICAL} : Установить уровень ведения журнала (по умолчанию: INFO)

Использование с IDE (Cursor/Windsurf/...)

  1. Открыть настройки IDE
  2. Перейдите к конфигурации MCP
  3. Добавьте новый сервер MCP со следующей конфигурацией:
    { "mcpServers": { "deepview": { "command": "/path/to/deepview-mcp", "args": [], "env": { "GEMINI_API_KEY": "your_gemini_api_key" } } } }

Установка файла кодовой базы необязательна. Если вы работаете с той же кодовой базой, вы можете установить файл кодовой базы по умолчанию, используя следующую конфигурацию:

{ "mcpServers": { "deepview": { "command": "/path/to/deepview-mcp", "args": ["/path/to/codebase.txt"], "env": { "GEMINI_API_KEY": "your_gemini_api_key" } } } }

Вот как указать версию Gemini для использования:

{ "mcpServers": { "deepview": { "command": "/path/to/deepview-mcp", "args": ["--model", "gemini-2.5-pro-exp-03-25"], "env": { "GEMINI_API_KEY": "your_gemini_api_key" } } } }
  1. Перезагрузить конфигурацию серверов MCP

Доступные инструменты

Сервер предоставляет один инструмент:

  1. deepview : Задайте вопрос о кодовой базе
    • Обязательный параметр: question — вопрос, который нужно задать о кодовой базе.
    • Необязательный параметр: codebase_file — путь к файлу кодовой базы для загрузки перед выполнением запроса.

Подготовка вашей кодовой базы

DeepView MCP требует один файл, содержащий всю вашу кодовую базу. Вы можете использовать repomix для подготовки вашей кодовой базы в формате, удобном для ИИ.

Использование репомикса

  1. Базовое использование : Запустите repomix в каталоге проекта, чтобы создать выходной файл по умолчанию:
# Make sure you're using Node.js 18.17.0 or higher npx repomix

Это сгенерирует файл repomix-output.xml содержащий вашу кодовую базу.

  1. Пользовательская конфигурация : создайте файл конфигурации, чтобы настроить, какие файлы будут упакованы, и формат вывода:
npx repomix --init

Это создаст файл repomix.config.json , который вы можете отредактировать следующим образом:

  • Включить/исключить определенные файлы или каталоги
  • Изменить формат вывода (XML, JSON, TXT)
  • Задайте имя выходного файла
  • Настройте другие параметры упаковки

Пример конфигурации репомикса

Вот пример файла repomix.config.json :

{ "include": [ "**/*.py", "**/*.js", "**/*.ts", "**/*.jsx", "**/*.tsx" ], "exclude": [ "node_modules/**", "venv/**", "**/__pycache__/**", "**/test/**" ], "output": { "format": "xml", "filename": "my-codebase.xml" } }

Более подробную информацию о repomix можно найти в репозитории repomix GitHub .

Лицензия

Массачусетский технологический институт

Автор

Дмитрий Дегтярев ( ddegtyarev@gmail.com )

-
security - not tested
A
license - permissive license
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Сервер Model Context Protocol, который позволяет таким IDE, как Cursor и Windsurf, анализировать большие кодовые базы, используя обширное контекстное окно Gemini.

  1. Функции
    1. Предпосылки
      1. Установка
        1. Установка через Smithery
        2. Использование пипа
      2. Использование
        1. Запуск сервера
        2. Параметры командной строки
        3. Использование с IDE (Cursor/Windsurf/...)
        4. Доступные инструменты
      3. Подготовка вашей кодовой базы
        1. Использование репомикса
        2. Пример конфигурации репомикса
      4. Лицензия
        1. Автор

          Related MCP Servers

          • -
            security
            F
            license
            -
            quality
            A Model Context Protocol server that enables Claude Desktop to interact with Google's Gemini 2.5 Pro Experimental AI model, with features like Google Search integration and token usage reporting.
            Last updated -
            3
            JavaScript
          • -
            security
            F
            license
            -
            quality
            A Model Context Protocol server that connects AI clients to local code repositories, using Gemini 2.0 Flash to analyze codebases and generate targeted context based on user queries.
            Last updated -
            9
            Python
          • -
            security
            F
            license
            -
            quality
            A Model Context Protocol server that gives Claude access to Google's Gemini 2.5 Pro for extended thinking, code analysis, and problem-solving with a massive context window.
            Last updated -
            5,763
            Python
            • Apple
          • -
            security
            A
            license
            -
            quality
            A Model Context Protocol server that enables Claude to collaborate with Google's Gemini AI models, providing tools for question answering, code review, brainstorming, test generation, and explanations.
            Last updated -
            Python
            MIT License

          View all related MCP servers

          MCP directory API

          We provide all the information about MCP servers via our MCP API.

          curl -X GET 'https://glama.ai/api/mcp/v1/servers/ai-1st/deepview-mcp'

          If you have feedback or need assistance with the MCP directory API, please join our Discord server