Skip to main content
Glama

DeepView MCP

ディープビューMCP

DeepView MCP は、Cursor や Windsurf などの IDE が Gemini の広範なコンテキスト ウィンドウを使用して大規模なコードベースを分析できるようにするモデル コンテキスト プロトコル サーバーです。

PyPIバージョン 鍛冶屋のバッジ

特徴

  • 単一のテキスト ファイルからコードベース全体をロードする (例: repomix などのツールで作成)

  • Gemini の大きなコンテキスト ウィンドウを使用してコードベースをクエリする

  • CursorやWindsurfなどのMCPプロトコルをサポートするIDEに接続します。

  • コマンドライン引数による設定可能なGeminiモデル選択

前提条件

インストール

Smithery経由でインストール

Smithery経由で Claude Desktop 用の DeepView を自動的にインストールするには:

npx -y @smithery/cli install @ai-1st/deepview-mcp --client claude

pipの使用

pip install deepview-mcp

使用法

サーバーの起動

注: サーバーを手動で起動する必要はありません。これらのパラメータは、IDE の MCP セットアップで設定されています(下記参照)。

# Basic usage with default settings deepview-mcp [path/to/codebase.txt] # Specify a different Gemini model deepview-mcp [path/to/codebase.txt] --model gemini-2.0-pro # Change log level deepview-mcp [path/to/codebase.txt] --log-level DEBUG

コードベースファイルのパラメータはオプションです。指定されていない場合は、クエリを実行する際に指定する必要があります。

コマンドラインオプション

  • --model MODEL : 使用する Gemini モデルを指定します (デフォルト: gemini-2.0-flash-lite)

  • --log-level {DEBUG,INFO,WARNING,ERROR,CRITICAL} : ログレベルを設定する (デフォルト: INFO)

IDE (カーソル/Windsurf/...) で使用する

  1. IDE設定を開く

  2. MCP構成に移動する

  3. 次の構成で新しい MCP サーバーを追加します。

    { "mcpServers": { "deepview": { "command": "/path/to/deepview-mcp", "args": [], "env": { "GEMINI_API_KEY": "your_gemini_api_key" } } } }

コードベースファイルの設定はオプションです。同じコードベースで作業している場合は、以下の設定を使用してデフォルトのコードベースファイルを設定できます。

{ "mcpServers": { "deepview": { "command": "/path/to/deepview-mcp", "args": ["/path/to/codebase.txt"], "env": { "GEMINI_API_KEY": "your_gemini_api_key" } } } }

使用する Gemini バージョンを指定する方法は次のとおりです。

{ "mcpServers": { "deepview": { "command": "/path/to/deepview-mcp", "args": ["--model", "gemini-2.5-pro-exp-03-25"], "env": { "GEMINI_API_KEY": "your_gemini_api_key" } } } }
  1. MCP サーバーの構成を再読み込みします

利用可能なツール

サーバーは次のツールを 1 つ提供します。

  1. deepview : コードベースについて質問する

    • 必須パラメータ: question - コードベースについて尋ねる質問

    • オプションパラメータ: codebase_file - クエリを実行する前に読み込むコードベースファイルへのパス

コードベースの準備

DeepView MCPでは、コードベース全体を1つのファイルにまとめる必要があります。repomix使用すると、AIに適した形式でコードベースを準備できます。

レポミックスの使用

  1. 基本的な使用法: プロジェクト ディレクトリで repomix を実行して、デフォルトの出力ファイルを作成します。

# Make sure you're using Node.js 18.17.0 or higher npx repomix

これにより、コードベースを含むrepomix-output.xmlファイルが生成されます。

  1. カスタム構成: パッケージ化するファイルと出力形式をカスタマイズするための構成ファイルを作成します。

npx repomix --init

これにより、次のことを編集できるrepomix.config.jsonファイルが作成されます。

  • 特定のファイルまたはディレクトリを含める/除外する

  • 出力形式を変更する(XML、JSON、TXT)

  • 出力ファイル名を設定する

  • その他のパッケージオプションを構成する

repomix 設定例

repomix.config.jsonファイルの例を次に示します。

{ "include": [ "**/*.py", "**/*.js", "**/*.ts", "**/*.jsx", "**/*.tsx" ], "exclude": [ "node_modules/**", "venv/**", "**/__pycache__/**", "**/test/**" ], "output": { "format": "xml", "filename": "my-codebase.xml" } }

repomix の詳細については、 repomix GitHub リポジトリをご覧ください。

ライセンス

マサチューセッツ工科大学

著者

ドミトリー・デグチャレフ ( ddegtyarev@gmail.com )

-
security - not tested
A
license - permissive license
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Cursor や Windsurf などの IDE が Gemini の広範なコンテキスト ウィンドウを使用して大規模なコードベースを分析できるようにするモデル コンテキスト プロトコル サーバー。

  1. 特徴
    1. 前提条件
      1. インストール
        1. Smithery経由でインストール
        2. pipの使用
      2. 使用法
        1. サーバーの起動
        2. コマンドラインオプション
        3. IDE (カーソル/Windsurf/...) で使用する
        4. 利用可能なツール
      3. コードベースの準備
        1. レポミックスの使用
        2. repomix 設定例
      4. ライセンス
        1. 著者

          Related MCP Servers

          • -
            security
            F
            license
            -
            quality
            A Model Context Protocol server that connects AI clients to local code repositories, using Gemini 2.0 Flash to analyze codebases and generate targeted context based on user queries.
            Last updated -
            10
            • Apple
            • Linux
          • -
            security
            F
            license
            -
            quality
            A Model Context Protocol server that gives Claude access to Google's Gemini 2.5 Pro for extended thinking, code analysis, and problem-solving with a massive context window.
            Last updated -
            7,193
            • Apple
          • -
            security
            A
            license
            -
            quality
            A Model Context Protocol server that enables Claude to collaborate with Google's Gemini AI models, providing tools for question answering, code review, brainstorming, test generation, and explanations.
            Last updated -
            MIT License
          • A
            security
            F
            license
            A
            quality
            A Model Context Protocol server that enables AI assistants to interact with Google Gemini CLI, allowing them to leverage Gemini's large token window for analyzing files and codebases using natural language commands.
            Last updated -
            6
            41,021
            1,362
            • Apple
            • Linux

          View all related MCP servers

          MCP directory API

          We provide all the information about MCP servers via our MCP API.

          curl -X GET 'https://glama.ai/api/mcp/v1/servers/ai-1st/deepview-mcp'

          If you have feedback or need assistance with the MCP directory API, please join our Discord server