ディープビューMCP
DeepView MCP は、Cursor や Windsurf などの IDE が Gemini の広範なコンテキスト ウィンドウを使用して大規模なコードベースを分析できるようにするモデル コンテキスト プロトコル サーバーです。
特徴
- 単一のテキスト ファイルからコードベース全体をロードする (例: repomix などのツールで作成)
- Gemini の大きなコンテキスト ウィンドウを使用してコードベースをクエリする
- CursorやWindsurfなどのMCPプロトコルをサポートするIDEに接続します。
- コマンドライン引数による設定可能なGeminiモデル選択
前提条件
- Python 3.13以上
- Google AI Studioの Gemini API キー
インストール
Smithery経由でインストール
Smithery経由で Claude Desktop 用の DeepView を自動的にインストールするには:
pipの使用
使用法
サーバーの起動
注: サーバーを手動で起動する必要はありません。これらのパラメータは、IDE の MCP セットアップで設定されています(下記参照)。
コードベースファイルのパラメータはオプションです。指定されていない場合は、クエリを実行する際に指定する必要があります。
コマンドラインオプション
--model MODEL
: 使用する Gemini モデルを指定します (デフォルト: gemini-2.0-flash-lite)--log-level {DEBUG,INFO,WARNING,ERROR,CRITICAL}
: ログレベルを設定する (デフォルト: INFO)
IDE (カーソル/Windsurf/...) で使用する
- IDE設定を開く
- MCP構成に移動する
- 次の構成で新しい MCP サーバーを追加します。
コードベースファイルの設定はオプションです。同じコードベースで作業している場合は、以下の設定を使用してデフォルトのコードベースファイルを設定できます。
使用する Gemini バージョンを指定する方法は次のとおりです。
- MCP サーバーの構成を再読み込みします
利用可能なツール
サーバーは次のツールを 1 つ提供します。
deepview
: コードベースについて質問する- 必須パラメータ:
question
- コードベースについて尋ねる質問 - オプションパラメータ:
codebase_file
- クエリを実行する前に読み込むコードベースファイルへのパス
- 必須パラメータ:
コードベースの準備
DeepView MCPでは、コードベース全体を1つのファイルにまとめる必要があります。repomixを使用すると、AIに適した形式でコードベースを準備できます。
レポミックスの使用
- 基本的な使用法: プロジェクト ディレクトリで repomix を実行して、デフォルトの出力ファイルを作成します。
これにより、コードベースを含むrepomix-output.xml
ファイルが生成されます。
- カスタム構成: パッケージ化するファイルと出力形式をカスタマイズするための構成ファイルを作成します。
これにより、次のことを編集できるrepomix.config.json
ファイルが作成されます。
- 特定のファイルまたはディレクトリを含める/除外する
- 出力形式を変更する(XML、JSON、TXT)
- 出力ファイル名を設定する
- その他のパッケージオプションを構成する
repomix 設定例
repomix.config.json
ファイルの例を次に示します。
repomix の詳細については、 repomix GitHub リポジトリをご覧ください。
ライセンス
マサチューセッツ工科大学
著者
ドミトリー・デグチャレフ ( ddegtyarev@gmail.com )
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Cursor や Windsurf などの IDE が Gemini の広範なコンテキスト ウィンドウを使用して大規模なコードベースを分析できるようにするモデル コンテキスト プロトコル サーバー。
Related MCP Servers
- -securityFlicense-qualityA Model Context Protocol server that enables Claude Desktop to interact with Google's Gemini 2.5 Pro Experimental AI model, with features like Google Search integration and token usage reporting.Last updated -3JavaScript
- -securityFlicense-qualityA Model Context Protocol server that connects AI clients to local code repositories, using Gemini 2.0 Flash to analyze codebases and generate targeted context based on user queries.Last updated -9Python
- -securityFlicense-qualityA Model Context Protocol server that gives Claude access to Google's Gemini 2.5 Pro for extended thinking, code analysis, and problem-solving with a massive context window.Last updated -5,763Python
- -securityAlicense-qualityA Model Context Protocol server that enables Claude to collaborate with Google's Gemini AI models, providing tools for question answering, code review, brainstorming, test generation, and explanations.Last updated -PythonMIT License