Servidor MCP de contexto Gemini
Una potente implementación de servidor MCP (Protocolo de Contexto de Modelo) que aprovecha las capacidades de Gemini para la gestión y el almacenamiento en caché de contextos. Este servidor maximiza el valor de la ventana de contexto de 2 M de tokens de Gemini, a la vez que proporciona herramientas para el almacenamiento en caché eficiente de contextos extensos.
🚀 Características
Gestión del contexto
Compatibilidad con ventanas de contexto de hasta 2 millones de tokens : aproveche las amplias capacidades de contexto de Gemini
Conversaciones basadas en sesiones : mantenga el estado de la conversación en múltiples interacciones
Seguimiento de contexto inteligente : agregue, recupere y busque contexto con metadatos
Búsqueda semántica : encuentre contexto relevante mediante similitud semántica
Limpieza automática del contexto : las sesiones y el contexto expiran automáticamente
Almacenamiento en caché de API
Almacenamiento en caché de avisos de gran tamaño : reutilice de forma eficiente avisos e instrucciones del sistema de gran tamaño
Optimización de costos : reduzca los costos de uso de tokens para contextos de uso frecuente
Gestión de TTL : controle los tiempos de expiración de la caché
Limpieza automática : los cachés caducados se eliminan automáticamente
🏁 Inicio rápido
Prerrequisitos
Node.js 18+ instalado
Clave API de Gemini ( Obtén una aquí )
Instalación
Uso básico
Integración de clientes MCP
Este servidor MCP se puede integrar con varios clientes compatibles con MCP:
Claude Desktop : agregar como servidor MCP en la configuración de Claude
Cursor : configurar en la configuración AI/MCP del cursor
VS Code : Úselo con extensiones compatibles con MCP
Para obtener instrucciones detalladas de integración con cada cliente, consulte la Guía de configuración del cliente MCP en la documentación de MCP.
Configuración rápida del cliente
Utilice nuestros comandos de instalación de cliente simplificados:
Cada comando configura los archivos de configuración apropiados y proporciona instrucciones para completar la integración.
💻 Ejemplos de uso
Para principiantes
Usando directamente el servidor:
Iniciar el servidor:
node dist/mcp-server.jsInteractúe utilizando los scripts de prueba proporcionados:
# Test basic context management node test-gemini-context.js # Test caching features node test-gemini-api-cache.js
Usando en su aplicación Node.js:
Para usuarios avanzados
Usando configuraciones personalizadas:
Utilizando el sistema de almacenamiento en caché para la optimización de costos:
🔌 Uso con herramientas MCP (como Cursor)
Este servidor implementa el Protocolo de Contexto de Modelo (MCP), lo que lo hace compatible con herramientas como Cursor u otros entornos de desarrollo mejorados con IA.
Herramientas MCP disponibles
Herramientas de gestión de contexto:
generate_text
- Generar texto con contextoget_context
- Obtener el contexto actual de una sesiónclear_context
- Borrar el contexto de la sesiónadd_context
- Agregar entradas de contexto específicassearch_context
- Encuentra contexto relevante semánticamente
Herramientas de almacenamiento en caché:
mcp_gemini_context_create_cache
: crea un caché para contextos grandesmcp_gemini_context_generate_with_cache
- Generar con contexto en cachémcp_gemini_context_list_caches
: enumera todos los cachés disponiblesmcp_gemini_context_update_cache_ttl
- Actualizar el TTL de la cachémcp_gemini_context_delete_cache
- Eliminar un caché
Conectando con el cursor
Cuando se utiliza con Cursor , puede conectarse a través de la configuración de MCP:
Para obtener instrucciones de uso detalladas de las herramientas MCP, consulte README-MCP.md .
⚙️ Opciones de configuración
Variables de entorno
Crea un archivo .env
con estas opciones:
🧪 Desarrollo
📚 Lectura adicional
Para el uso específico de MCP, consulte README-MCP.md
Explora el manifiesto en mcp-manifest.json para comprender las herramientas disponibles
Consulte los scripts de ejemplo en el repositorio para conocer los patrones de uso
📋 Mejoras futuras
Persistencia de la base de datos para contexto y cachés
Gestión del tamaño de caché y políticas de desalojo
Búsqueda semántica basada en vectores
Seguimiento de análisis y métricas
Integración con tiendas vectoriales
Operaciones por lotes para la gestión del contexto
Estrategias de almacenamiento en caché híbrido
Optimización automática de indicaciones
📄 Licencia
Instituto Tecnológico de Massachusetts (MIT)
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Una implementación de servidor MCP que maximiza la ventana de contexto de token de 2M de Gemini con herramientas para la gestión eficiente del contexto y el almacenamiento en caché en múltiples aplicaciones cliente de IA.
Related MCP Servers
- -securityAlicense-qualityThe ultimate Gemini API interface for MCP hosts, intelligently selecting models for the task at hand—delivering optimal performance, minimal token cost, and seamless integration.Last updated -19MIT License
- AsecurityAlicenseAqualityA dedicated server that wraps Google's Gemini AI models in a Model Context Protocol (MCP) interface, allowing other LLMs and MCP-compatible systems to access Gemini's capabilities like content generation, function calling, chat, and file handling through standardized tools.Last updated -1632MIT License
- -securityAlicense-qualityA Model Context Protocol (MCP) server implementation for the Google Gemini language model. This server allows Claude Desktop users to access the powerful reasoning capabilities of Gemini-2.0-flash-thinking-exp-01-21 model.Last updated -1MIT License
- AsecurityFlicenseAqualityA Model Context Protocol server that enables AI assistants to interact with Google Gemini CLI, allowing them to leverage Gemini's large token window for analyzing files and codebases using natural language commands.Last updated -641,0211,362