Files-DB-MCP: コードプロジェクトのベクトル検索
メッセージ制御プロトコル (MCP) を介して、LLM コーディング エージェントにソフトウェア プロジェクトの高速で効率的な検索機能を提供するローカル ベクター データベース システム。
特徴
ゼロ構成- 適切なデフォルトを使用してプロジェクト構造を自動検出します
リアルタイム監視- ファイルの変更を継続的に監視します
ベクトル検索- 関連するコードを見つけるためのセマンティック検索
MCP インターフェース- Claude Code およびその他の LLM ツールと互換性があります
オープンソースモデル- コードの埋め込みにHugging Faceモデルを使用
Related MCP server: MCPunk
インストール
オプション 1: クローンとセットアップ (推奨)
オプション2: 自動インストールスクリプト
使用法
インストール後、任意のプロジェクト ディレクトリで実行します。
このサービスでは次のことが行われます。
プロジェクトファイルを検出する
バックグラウンドでインデックス作成を開始する
MCP検索クエリにすぐに応答し始める
要件
ドッカー
Dockerコンポーズ
構成
Files-DB-MCP は設定なしで動作しますが、環境変数を使用してカスタマイズできます。
EMBEDDING_MODEL- 埋め込みモデルを変更します(デフォルト: 'jinaai/jina-embeddings-v2-base-code' またはプロジェクト固有のモデル)FAST_STARTUP- 起動を高速化するために小さいモデルを使用するには「true」に設定します(デフォルト:「false」)QUANTIZATION- 量子化を有効/無効にする(デフォルト: 'true')BINARY_EMBEDDINGS- バイナリ埋め込みを有効/無効にする(デフォルト: 'false')IGNORE_PATTERNS- 無視するファイル/ディレクトリのコンマ区切りリスト
初めてのスタートアップ
初回実行時に、Files-DB-MCP は埋め込みモデルをダウンロードしますが、これには次の条件に応じて数分かかる場合があります。
選択したモデルのサイズ(高品質モデルの場合は300~500MB)
インターネット接続速度
モデルは永続的なDockerボリュームにキャッシュされるため、以降の起動は大幅に高速化されます。初期起動を高速化するには、以下の方法があります。
モデルキャッシュ
Files-DB-MCP はダウンロードした埋め込みモデルを自動的に保存するため、ダウンロードする必要があるのは 1 回だけです。
モデルは
model_cacheと呼ばれるDockerボリュームに保存されます。このボリュームはコンテナの再起動や異なるプロジェクト間でも保持されます
キャッシュは、マシン上の Files-DB-MCP を使用するすべてのプロジェクトで共有されます。
プロジェクトごとにモデルを再度ダウンロードする必要はありません
クロード・コード統合
Claude Code 構成に追加:
詳細については、 「Claude MCP 統合」を参照してください。
ドキュメント
リポジトリ構造
/src- ソースコード/tests- ユニットテストと統合テスト/docs- ドキュメント/scripts- ユーティリティスクリプト/install- インストールスクリプト/.docker- Docker 設定/config- 設定ファイル/ai-assist- AIアシスタンスファイル
ライセンス
貢献
貢献を歓迎します!お気軽にプルリクエストを送信してください。