DeepView MCP
DeepView MCP ist ein Model Context Protocol-Server, der es IDEs wie Cursor und Windsurf ermöglicht, große Codebasen mithilfe des umfangreichen Kontextfensters von Gemini zu analysieren.
Merkmale
Laden Sie eine gesamte Codebasis aus einer einzigen Textdatei (z. B. erstellt mit Tools wie Repomix).
Abfrage der Codebasis mithilfe des großen Kontextfensters von Gemini
Stellen Sie eine Verbindung zu IDEs her, die das MCP-Protokoll unterstützen, wie Cursor und Windsurf
Konfigurierbare Gemini-Modellauswahl über Befehlszeilenargumente
Voraussetzungen
Python 3.13+
Gemini-API-Schlüssel von Google AI Studio
Installation
Installation über Smithery
So installieren Sie DeepView für Claude Desktop automatisch über Smithery :
Verwenden von pip
Verwendung
Starten des Servers
Hinweis: Sie müssen den Server nicht manuell starten. Diese Parameter werden in Ihrem MCP-Setup in Ihrer IDE konfiguriert (siehe unten).
Der Parameter „Codebasisdatei“ ist optional. Wenn er nicht angegeben wird, müssen Sie ihn bei Abfragen angeben.
Befehlszeilenoptionen
--model MODEL
: Geben Sie das zu verwendende Gemini-Modell an (Standard: gemini-2.0-flash-lite)--log-level {DEBUG,INFO,WARNING,ERROR,CRITICAL}
: Setzt die Protokollierungsebene (Standard: INFO)
Verwendung mit einer IDE (Cursor/Windsurf/...)
IDE-Einstellungen öffnen
Navigieren Sie zur MCP-Konfiguration
Fügen Sie einen neuen MCP-Server mit der folgenden Konfiguration hinzu:
{ "mcpServers": { "deepview": { "command": "/path/to/deepview-mcp", "args": [], "env": { "GEMINI_API_KEY": "your_gemini_api_key" } } } }
Das Festlegen einer Codebasisdatei ist optional. Wenn Sie mit derselben Codebasis arbeiten, können Sie die Standard-Codebasisdatei mit der folgenden Konfiguration festlegen:
So geben Sie die zu verwendende Gemini-Version an:
MCP-Serverkonfiguration neu laden
Verfügbare Tools
Der Server stellt ein Tool bereit:
deepview
: Stellen Sie eine Frage zur CodebasisErforderlicher Parameter:
question
– Die zu stellende Frage zur CodebasisOptionaler Parameter:
codebase_file
- Pfad zu einer Codebase-Datei, die vor der Abfrage geladen werden soll
Vorbereiten Ihrer Codebasis
DeepView MCP benötigt eine einzelne Datei, die Ihre gesamte Codebasis enthält. Mit repomix können Sie Ihre Codebasis in einem KI-freundlichen Format vorbereiten.
Verwendung von Repomix
Grundlegende Verwendung : Führen Sie repomix in Ihrem Projektverzeichnis aus, um eine Standardausgabedatei zu erstellen:
Dadurch wird eine Datei repomix-output.xml
generiert, die Ihre Codebasis enthält.
Benutzerdefinierte Konfiguration : Erstellen Sie eine Konfigurationsdatei, um anzupassen, welche Dateien verpackt werden und welches Ausgabeformat verwendet wird:
Dadurch wird eine Datei repomix.config.json
erstellt, die Sie wie folgt bearbeiten können:
Bestimmte Dateien oder Verzeichnisse einschließen/ausschließen
Ändern Sie das Ausgabeformat (XML, JSON, TXT).
Legen Sie den Ausgabedateinamen fest
Konfigurieren Sie andere Verpackungsoptionen
Beispiel einer Repomix-Konfiguration
Hier ist ein Beispiel für repomix.config.json
-Datei:
Weitere Informationen zu Repomix finden Sie im Repomix-GitHub-Repository .
Lizenz
MIT
Autor
Dmitry Degtyarev ( ddegtyarev@gmail.com )
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Ein Model Context Protocol-Server, der es IDEs wie Cursor und Windsurf ermöglicht, große Codebasen mithilfe des umfangreichen Kontextfensters von Gemini zu analysieren.
Related MCP Servers
- -securityFlicense-qualityA Model Context Protocol server that connects AI clients to local code repositories, using Gemini 2.0 Flash to analyze codebases and generate targeted context based on user queries.Last updated -10
- -securityFlicense-qualityA Model Context Protocol server that gives Claude access to Google's Gemini 2.5 Pro for extended thinking, code analysis, and problem-solving with a massive context window.Last updated -7,193
- -securityAlicense-qualityA Model Context Protocol server that enables Claude to collaborate with Google's Gemini AI models, providing tools for question answering, code review, brainstorming, test generation, and explanations.Last updated -MIT License
- AsecurityFlicenseAqualityA Model Context Protocol server that enables AI assistants to interact with Google Gemini CLI, allowing them to leverage Gemini's large token window for analyzing files and codebases using natural language commands.Last updated -641,0211,362