Skip to main content
Glama

DeepView MCP

DeepView MCP

DeepView MCP ist ein Model Context Protocol-Server, der es IDEs wie Cursor und Windsurf ermöglicht, große Codebasen mithilfe des umfangreichen Kontextfensters von Gemini zu analysieren.

Merkmale

  • Laden Sie eine gesamte Codebasis aus einer einzigen Textdatei (z. B. erstellt mit Tools wie Repomix).
  • Abfrage der Codebasis mithilfe des großen Kontextfensters von Gemini
  • Stellen Sie eine Verbindung zu IDEs her, die das MCP-Protokoll unterstützen, wie Cursor und Windsurf
  • Konfigurierbare Gemini-Modellauswahl über Befehlszeilenargumente

Voraussetzungen

Installation

Installation über Smithery

So installieren Sie DeepView für Claude Desktop automatisch über Smithery :

npx -y @smithery/cli install @ai-1st/deepview-mcp --client claude

Verwenden von pip

pip install deepview-mcp

Verwendung

Starten des Servers

Hinweis: Sie müssen den Server nicht manuell starten. Diese Parameter werden in Ihrem MCP-Setup in Ihrer IDE konfiguriert (siehe unten).

# Basic usage with default settings deepview-mcp [path/to/codebase.txt] # Specify a different Gemini model deepview-mcp [path/to/codebase.txt] --model gemini-2.0-pro # Change log level deepview-mcp [path/to/codebase.txt] --log-level DEBUG

Der Parameter „Codebasisdatei“ ist optional. Wenn er nicht angegeben wird, müssen Sie ihn bei Abfragen angeben.

Befehlszeilenoptionen

  • --model MODEL : Geben Sie das zu verwendende Gemini-Modell an (Standard: gemini-2.0-flash-lite)
  • --log-level {DEBUG,INFO,WARNING,ERROR,CRITICAL} : Setzt die Protokollierungsebene (Standard: INFO)

Verwendung mit einer IDE (Cursor/Windsurf/...)

  1. IDE-Einstellungen öffnen
  2. Navigieren Sie zur MCP-Konfiguration
  3. Fügen Sie einen neuen MCP-Server mit der folgenden Konfiguration hinzu:
    { "mcpServers": { "deepview": { "command": "/path/to/deepview-mcp", "args": [], "env": { "GEMINI_API_KEY": "your_gemini_api_key" } } } }

Das Festlegen einer Codebasisdatei ist optional. Wenn Sie mit derselben Codebasis arbeiten, können Sie die Standard-Codebasisdatei mit der folgenden Konfiguration festlegen:

{ "mcpServers": { "deepview": { "command": "/path/to/deepview-mcp", "args": ["/path/to/codebase.txt"], "env": { "GEMINI_API_KEY": "your_gemini_api_key" } } } }

So geben Sie die zu verwendende Gemini-Version an:

{ "mcpServers": { "deepview": { "command": "/path/to/deepview-mcp", "args": ["--model", "gemini-2.5-pro-exp-03-25"], "env": { "GEMINI_API_KEY": "your_gemini_api_key" } } } }
  1. MCP-Serverkonfiguration neu laden

Verfügbare Tools

Der Server stellt ein Tool bereit:

  1. deepview : Stellen Sie eine Frage zur Codebasis
    • Erforderlicher Parameter: question – Die zu stellende Frage zur Codebasis
    • Optionaler Parameter: codebase_file - Pfad zu einer Codebase-Datei, die vor der Abfrage geladen werden soll

Vorbereiten Ihrer Codebasis

DeepView MCP benötigt eine einzelne Datei, die Ihre gesamte Codebasis enthält. Mit repomix können Sie Ihre Codebasis in einem KI-freundlichen Format vorbereiten.

Verwendung von Repomix

  1. Grundlegende Verwendung : Führen Sie repomix in Ihrem Projektverzeichnis aus, um eine Standardausgabedatei zu erstellen:
# Make sure you're using Node.js 18.17.0 or higher npx repomix

Dadurch wird eine Datei repomix-output.xml generiert, die Ihre Codebasis enthält.

  1. Benutzerdefinierte Konfiguration : Erstellen Sie eine Konfigurationsdatei, um anzupassen, welche Dateien verpackt werden und welches Ausgabeformat verwendet wird:
npx repomix --init

Dadurch wird eine Datei repomix.config.json erstellt, die Sie wie folgt bearbeiten können:

  • Bestimmte Dateien oder Verzeichnisse einschließen/ausschließen
  • Ändern Sie das Ausgabeformat (XML, JSON, TXT).
  • Legen Sie den Ausgabedateinamen fest
  • Konfigurieren Sie andere Verpackungsoptionen

Beispiel einer Repomix-Konfiguration

Hier ist ein Beispiel für repomix.config.json -Datei:

{ "include": [ "**/*.py", "**/*.js", "**/*.ts", "**/*.jsx", "**/*.tsx" ], "exclude": [ "node_modules/**", "venv/**", "**/__pycache__/**", "**/test/**" ], "output": { "format": "xml", "filename": "my-codebase.xml" } }

Weitere Informationen zu Repomix finden Sie im Repomix-GitHub-Repository .

Lizenz

MIT

Autor

Dmitry Degtyarev ( ddegtyarev@gmail.com )

-
security - not tested
A
license - permissive license
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Ein Model Context Protocol-Server, der es IDEs wie Cursor und Windsurf ermöglicht, große Codebasen mithilfe des umfangreichen Kontextfensters von Gemini zu analysieren.

  1. Merkmale
    1. Voraussetzungen
      1. Installation
        1. Installation über Smithery
        2. Verwenden von pip
      2. Verwendung
        1. Starten des Servers
        2. Befehlszeilenoptionen
        3. Verwendung mit einer IDE (Cursor/Windsurf/...)
        4. Verfügbare Tools
      3. Vorbereiten Ihrer Codebasis
        1. Verwendung von Repomix
        2. Beispiel einer Repomix-Konfiguration
      4. Lizenz
        1. Autor

          Related MCP Servers

          • -
            security
            F
            license
            -
            quality
            A Model Context Protocol server that enables Claude Desktop to interact with Google's Gemini 2.5 Pro Experimental AI model, with features like Google Search integration and token usage reporting.
            Last updated -
            3
            JavaScript
          • -
            security
            F
            license
            -
            quality
            A Model Context Protocol server that connects AI clients to local code repositories, using Gemini 2.0 Flash to analyze codebases and generate targeted context based on user queries.
            Last updated -
            9
            Python
          • -
            security
            F
            license
            -
            quality
            A Model Context Protocol server that gives Claude access to Google's Gemini 2.5 Pro for extended thinking, code analysis, and problem-solving with a massive context window.
            Last updated -
            5,763
            Python
            • Apple
          • -
            security
            A
            license
            -
            quality
            A Model Context Protocol server that enables Claude to collaborate with Google's Gemini AI models, providing tools for question answering, code review, brainstorming, test generation, and explanations.
            Last updated -
            Python
            MIT License

          View all related MCP servers

          MCP directory API

          We provide all the information about MCP servers via our MCP API.

          curl -X GET 'https://glama.ai/api/mcp/v1/servers/ai-1st/deepview-mcp'

          If you have feedback or need assistance with the MCP directory API, please join our Discord server