Skip to main content
Glama

Gemini Context MCP Server

by ogoldberg

Gemini Context MCP 服务器

一个强大的 MCP(模型上下文协议)服务器实现,充分利用了 Gemini 的上下文管理和缓存功能。该服务器最大限度地发挥了 Gemini 2M 令牌上下文窗口的价值,同时提供了高效缓存大型上下文的工具。

🚀 功能

上下文管理

  • 高达 2M 令牌上下文窗口支持- 利用 Gemini 的广泛上下文功能
  • 基于会话的对话- 在多个交互中保持对话状态
  • 智能上下文跟踪- 使用元数据添加、检索和搜索上下文
  • 语义搜索——利用语义相似性查找相关上下文
  • 自动上下文清理- 会话和上下文自动过期

API缓存

  • 大型提示缓存- 高效重用大型系统提示和指令
  • 成本优化——降低常用上下文的令牌使用成本
  • TTL 管理- 控制缓存过期时间
  • 自动清理- 自动删除过期的缓存

🏁 快速入门

先决条件

安装

# Clone the repository git clone https://github.com/ogoldberg/gemini-context-mcp-server cd gemini-context-mcp-server # Install dependencies npm install # Copy environment variables example cp .env.example .env # Add your Gemini API key to .env file # GEMINI_API_KEY=your_api_key_here

基本用法

# Build the server npm run build # Start the server node dist/mcp-server.js

MCP 客户端集成

该 MCP 服务器可以与各种兼容 MCP 的客户端集成:

  • Claude 桌面- 在 Claude 设置中添加为 MCP 服务器
  • Cursor - 在 Cursor 的 AI/MCP 设置中配置
  • VS Code - 与 MCP 兼容的扩展一起使用

有关每个客户端的详细集成说明,请参阅 MCP 文档中的MCP 客户端配置指南

快速客户端设置

使用我们简化的客户端安装命令:

# Install and configure for Claude Desktop npm run install:claude # Install and configure for Cursor npm run install:cursor # Install and configure for VS Code npm run install:vscode

每个命令都会设置适当的配置文件并提供完成集成的说明。

💻 使用示例

对于初学者

直接使用服务器:
  1. 启动服务器:
    node dist/mcp-server.js
  2. 使用提供的测试脚本进行交互:
    # Test basic context management node test-gemini-context.js # Test caching features node test-gemini-api-cache.js
在您的 Node.js 应用程序中使用:
import { GeminiContextServer } from './src/gemini-context-server.js'; async function main() { // Create server instance const server = new GeminiContextServer(); // Generate a response in a session const sessionId = "user-123"; const response = await server.processMessage(sessionId, "What is machine learning?"); console.log("Response:", response); // Ask a follow-up in the same session (maintains context) const followUp = await server.processMessage(sessionId, "What are popular algorithms?"); console.log("Follow-up:", followUp); } main();

对于高级用户

使用自定义配置:
// Custom configuration const config = { gemini: { apiKey: process.env.GEMINI_API_KEY, model: 'gemini-2.0-pro', temperature: 0.2, maxOutputTokens: 1024, }, server: { sessionTimeoutMinutes: 30, maxTokensPerSession: 1000000 } }; const server = new GeminiContextServer(config);
使用缓存系统进行成本优化:
// Create a cache for large system instructions const cacheName = await server.createCache( 'Technical Support System', 'You are a technical support assistant for a software company...', 7200 // 2 hour TTL ); // Generate content using the cache const response = await server.generateWithCache( cacheName, 'How do I reset my password?' ); // Clean up when done await server.deleteCache(cacheName);

🔌 与 MCP 工具(如 Cursor)一起使用

该服务器实现了模型上下文协议 (MCP),使其与 Cursor 或其他 AI 增强开发环境等工具兼容。

可用的 MCP 工具

  1. 上下文管理工具:
    • generate_text - 生成带有上下文的文本
    • get_context获取会话的当前上下文
    • clear_context - 清除会话上下文
    • add_context - 添加特定的上下文条目
    • search_context - 从语义上查找相关上下文
  2. 缓存工具:
    • mcp_gemini_context_create_cache - 为大型上下文创建缓存
    • mcp_gemini_context_generate_with_cache - 使用缓存上下文生成
    • mcp_gemini_context_list_caches - 列出所有可用的缓存
    • mcp_gemini_context_update_cache_ttl - 更新缓存 TTL
    • mcp_gemini_context_delete_cache - 删除缓存

使用光标连接

Cursor一起使用时,您可以通过 MCP 配置进行连接:

{ "name": "gemini-context", "version": "1.0.0", "description": "Gemini context management and caching MCP server", "entrypoint": "dist/mcp-server.js", "capabilities": { "tools": true }, "manifestPath": "mcp-manifest.json", "documentation": "README-MCP.md" }

有关 MCP 工具的详细使用说明,请参阅README-MCP.md

⚙️ 配置选项

环境变量

使用以下选项创建.env文件:

# Required GEMINI_API_KEY=your_api_key_here GEMINI_MODEL=gemini-2.0-flash # Optional - Model Settings GEMINI_TEMPERATURE=0.7 GEMINI_TOP_K=40 GEMINI_TOP_P=0.9 GEMINI_MAX_OUTPUT_TOKENS=2097152 # Optional - Server Settings MAX_SESSIONS=50 SESSION_TIMEOUT_MINUTES=120 MAX_MESSAGE_LENGTH=1000000 MAX_TOKENS_PER_SESSION=2097152 DEBUG=false

🧪 开发

# Build TypeScript files npm run build # Run in development mode with auto-reload npm run dev # Run tests npm test

📚 进一步阅读

  • 有关 MCP 的具体用法,请参阅README-MCP.md
  • 探索mcp-manifest.json中的清单以了解可用的工具
  • 检查存储库中的示例脚本以了解使用模式

📋 未来的改进

  • 上下文和缓存的数据库持久性
  • 缓存大小管理和驱逐策略
  • 基于向量的语义搜索
  • 分析和指标跟踪
  • 与向量存储集成
  • 上下文管理的批量操作
  • 混合缓存策略
  • 自动提示优化

📄 许可证

麻省理工学院

-
security - not tested
F
license - not found
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

MCP 服务器实现最大化 Gemini 的 2M 令牌上下文窗口,并带有跨多个 AI 客户端应用程序进行高效上下文管理和缓存的工具。

  1. 🚀 功能
    1. 上下文管理
    2. API缓存
  2. 🏁 快速入门
    1. 先决条件
    2. 安装
    3. 基本用法
    4. MCP 客户端集成
  3. 💻 使用示例
    1. 对于初学者
    2. 对于高级用户
  4. 🔌 与 MCP 工具(如 Cursor)一起使用
    1. 可用的 MCP 工具
    2. 使用光标连接
  5. ⚙️ 配置选项
    1. 环境变量
  6. 🧪 开发
    1. 📚 进一步阅读
      1. 📋 未来的改进
        1. 📄 许可证

          Related MCP Servers

          • -
            security
            A
            license
            -
            quality
            The ultimate Gemini API interface for MCP hosts, intelligently selecting models for the task at hand—delivering optimal performance, minimal token cost, and seamless integration.
            Last updated -
            17
            TypeScript
            MIT License
          • A
            security
            A
            license
            A
            quality
            A dedicated server that wraps Google's Gemini AI models in a Model Context Protocol (MCP) interface, allowing other LLMs and MCP-compatible systems to access Gemini's capabilities like content generation, function calling, chat, and file handling through standardized tools.
            Last updated -
            16
            30
            TypeScript
            MIT License
            • Linux
            • Apple
          • -
            security
            A
            license
            -
            quality
            A Model Context Protocol (MCP) server implementation for the Google Gemini language model. This server allows Claude Desktop users to access the powerful reasoning capabilities of Gemini-2.0-flash-thinking-exp-01-21 model.
            Last updated -
            1
            JavaScript
            MIT License
          • A
            security
            F
            license
            A
            quality
            A Model Context Protocol server that enables AI assistants to interact with Google Gemini CLI, allowing them to leverage Gemini's large token window for analyzing files and codebases using natural language commands.
            Last updated -
            4
            2,194
            749
            TypeScript
            • Apple
            • Linux

          View all related MCP servers

          MCP directory API

          We provide all the information about MCP servers via our MCP API.

          curl -X GET 'https://glama.ai/api/mcp/v1/servers/ogoldberg/gemini-context-mcp-server'

          If you have feedback or need assistance with the MCP directory API, please join our Discord server