Skip to main content
Glama

Gemini MCP File Agent

by kevingduck

Gemini MCP-Dateiagent (MVP)

Mit diesem Projekt können Sie mit der Gemini-KI von Google chatten und ihr das sichere Lesen, Schreiben und Auflisten von Dateien auf Ihrem Computer in einem bestimmten, kontrollierten Ordner (einer „Sandbox“) ermöglichen.

Was es bewirkt:

  • mcp_server.py : Ein lokaler Server, den Gemini für den Dateizugriff verwendet. Sie geben an, welcher Ordner auf Ihrem Computer die „Sandbox“ ist.
  • Chat-Skripte ( chat_with_gemini_mcp.py , simple_chat.py ) : Kommandozeilen-Chats, in denen Sie mit Gemini kommunizieren. Gemini kann dann mcp_server.py verwenden, um Dateien in der Sandbox zu verwalten.

VORSICHT: Dies ist ein einfaches Beispiel. Achten Sie darauf, auf welchen Ordner Sie mcp_server.py Zugriff gewähren.

Schnellstart

  1. Dateien abrufen: Stellen Sie sicher, dass sich alle .py Dateien in einem Ordner befinden.
  2. API-Schlüssel:
    • Holen Sie sich einen Google AI API-Schlüssel von Google AI Studio .
    • Legen Sie es als Umgebungsvariable fest:
      export GOOGLE_API_KEY="YOUR_KEY_HERE"
      (Verwenden Sie für Windows set GOOGLE_API_KEY="YOUR_KEY_HERE" )
  3. Sachen installieren:
    pip install -r requirements.txt
    (Oder führen Sie ./install_packages.sh aus)
  4. Führen Sie es aus:
    • Terminal 1: Starten Sie den MCP-Server
      python mcp_server.py
      (Dadurch wird standardmäßig ein Ordner ./mcp_data_sandbox/ erstellt und verwendet. So verwenden Sie einen anderen Ordner: python mcp_server.py --sandbox-dir ./my_files )
    • Terminal 2: Chatten starten
      python chat_with_gemini_mcp.py
  5. Chatten Sie mit Zwillingen:
    • „Welche Dateien befinden sich in meinem Arbeitsordner?“
    • „Erstellen Sie notes.txt und schreiben Sie ‚Hallo Welt‘ hinein.“
    • "Lesen Sie notes.txt ."

So funktioniert es (einfach)

  1. Sie chatten mit Gemini.
  2. Wenn Sie nach Dateien fragen, weist Gemini Ihr Chat-Skript an, ein „Dateitool“ zu verwenden.
  3. Ihr Chat-Skript weist mcp_server.py an, die Dateiaktion (Lesen, Schreiben usw.) im Sandbox-Ordner auszuführen.
  4. Der Server führt dies aus und teilt dem Chat-Skript das Ergebnis mit.
  5. Das Chat-Skript teilt Gemini das Ergebnis mit.
  6. Gemini erzählt Ihnen, was passiert ist.

Wichtig

  • Nur Sandbox: Die mcp_server.py kann NUR Dateien in dem Ordner bearbeiten, den Sie als Sandbox ausgewählt haben. Dies dient der Sicherheit.
  • Lokale Nutzung: Zur Ausführung auf Ihrem eigenen Computer konzipiert.

Dies ist ein grundlegendes Tool, um den Dateizugriff für KI zu testen. Nutzen Sie es mit Bedacht!

-
security - not tested
F
license - not found
-
quality - not tested

local-only server

The server can only run on the client's local machine because it depends on local resources.

Ein lokaler Server, der es der Gemini AI von Google ermöglicht, über Chat-Interaktionen in natürlicher Sprache Dateien in einem kontrollierten Sandbox-Ordner auf Ihrem Computer sicher zu lesen, zu schreiben und aufzulisten.

  1. Schnellstart
    1. So funktioniert es (einfach)
      1. Wichtig

        Related MCP Servers

        • A
          security
          F
          license
          A
          quality
          A server that provides access to Google Gemini AI capabilities including text generation, image analysis, YouTube video analysis, and web search functionality through the MCP protocol.
          Last updated -
          6
          7
          4
          TypeScript
          • Apple
        • A
          security
          A
          license
          A
          quality
          A dedicated server that wraps Google's Gemini AI models in a Model Context Protocol (MCP) interface, allowing other LLMs and MCP-compatible systems to access Gemini's capabilities like content generation, function calling, chat, and file handling through standardized tools.
          Last updated -
          16
          30
          TypeScript
          MIT License
          • Linux
          • Apple
        • -
          security
          F
          license
          -
          quality
          A server that allows interaction with Google's Gemini AI through the Gemini CLI tool using the Model Context Protocol, providing a standardized interface for querying Gemini with various options and configurations.
          Last updated -
          JavaScript
        • A
          security
          F
          license
          A
          quality
          A Model Context Protocol server that enables AI assistants to interact with Google Gemini CLI, allowing them to leverage Gemini's large token window for analyzing files and codebases using natural language commands.
          Last updated -
          4
          1,619
          824
          TypeScript
          • Apple
          • Linux

        View all related MCP servers

        MCP directory API

        We provide all the information about MCP servers via our MCP API.

        curl -X GET 'https://glama.ai/api/mcp/v1/servers/kevingduck/gemini_mcp'

        If you have feedback or need assistance with the MCP directory API, please join our Discord server