Skip to main content
Glama

MemGPT MCP Server

by Vic563

Servidor MCP MemGPT

Un servidor MCP basado en TypeScript que implementa un sistema de memoria para LLM. Proporciona herramientas para chatear con diferentes proveedores de LLM y mantiene el historial de conversaciones.

Características

Herramientas

  • chat - Envía un mensaje al proveedor actual de LLM
    • Toma un parámetro de mensaje
    • Admite múltiples proveedores (OpenAI, Anthropic, OpenRouter, Ollama)
  • get_memory - Recuperar el historial de conversaciones
    • Parámetro limit opcional para especificar el número de memorias a recuperar
    • limit: null para recuperación de memoria ilimitada
    • Devuelve recuerdos en orden cronológico con marcas de tiempo.
  • clear_memory - Borrar el historial de conversaciones
    • Elimina todos los recuerdos almacenados
  • use_provider - Cambiar entre diferentes proveedores de LLM
    • Compatible con OpenAI, Anthropic, OpenRouter y Ollama
    • Persiste la selección del proveedor
  • use_model - Cambiar a un modelo diferente para el proveedor actual
    • Admite modelos específicos del proveedor:
      • Modelos antrópicos de Claude:
        • Serie Claude 3:
          • claude-3-haiku : Tiempos de respuesta más rápidos, ideales para tareas como atención al cliente y moderación de contenido.
          • claude-3-sonnet : Rendimiento equilibrado para uso general
          • claude-3-opus : Modelo avanzado para razonamiento complejo y tareas de alto rendimiento
        • Serie Claude 3.5:
          • claude-3.5-haiku : Mayor velocidad y rentabilidad
          • claude-3.5-sonnet : Rendimiento superior con capacidades de interacción con la computadora
      • OpenAI: 'gpt-4o', 'gpt-4o-mini', 'gpt-4-turbo'
      • OpenRouter: cualquier modelo en formato 'proveedor/modelo' (por ejemplo, 'openai/gpt-4', 'anthropic/claude-2')
      • Ollama: Cualquier modelo disponible localmente (por ejemplo, 'llama2', 'codellama')
    • Persiste la selección del modelo

Desarrollo

Instalar dependencias:

npm install

Construir el servidor:

npm run build

Para desarrollo con reconstrucción automática:

npm run watch

Instalación

Para utilizar con Claude Desktop, agregue la configuración del servidor:

En MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json En Windows: %APPDATA%/Claude/claude_desktop_config.json

{ "mcpServers": { "letta-memgpt": { "command": "/path/to/memgpt-server/build/index.js", "env": { "OPENAI_API_KEY": "your-openai-key", "ANTHROPIC_API_KEY": "your-anthropic-key", "OPENROUTER_API_KEY": "your-openrouter-key" } } } }

Variables de entorno

  • OPENAI_API_KEY : su clave API de OpenAI
  • ANTHROPIC_API_KEY - Su clave API antrópica
  • OPENROUTER_API_KEY - Su clave API de OpenRouter

Depuración

Dado que los servidores MCP se comunican a través de stdio, la depuración puede ser complicada. Recomendamos usar el Inspector MCP :

npm run inspector

El Inspector proporcionará una URL para acceder a las herramientas de depuración en su navegador.

Actualizaciones recientes

Compatibilidad con las series Claude 3 y 3.5 (marzo de 2024)

  • Se agregó soporte para los últimos modelos de Claude:
    • Serie Claude 3 (Haiku, Soneto, Opus)
    • Serie Claude 3.5 (Haiku, Soneto)

Recuperación de memoria ilimitada

  • Se agregó soporte para recuperar el historial de conversaciones ilimitado
  • Utilice { "limit": null } con la herramienta get_memory para recuperar todas las memorias almacenadas
  • Utilice { "limit": n } para recuperar las n memorias más recientes
  • El límite predeterminado es 10 si no se especifica
-
security - not tested
F
license - not found
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Un servidor basado en TypeScript que proporciona un sistema de memoria para modelos de lenguaje grandes (LLM), lo que permite a los usuarios interactuar con múltiples proveedores de LLM mientras mantiene el historial de conversaciones y ofrece herramientas para administrar proveedores y configuraciones de modelos.

  1. Características
    1. Herramientas
  2. Desarrollo
    1. Instalación
      1. Variables de entorno
      2. Depuración
    2. Actualizaciones recientes
      1. Compatibilidad con las series Claude 3 y 3.5 (marzo de 2024)
      2. Recuperación de memoria ilimitada

    Related MCP Servers

    • -
      security
      A
      license
      -
      quality
      This is a server that lets your LLMs (like Claude) talk directly to your BigQuery data! Think of it as a friendly translator that sits between your AI assistant and your database, making sure they can chat securely and efficiently.
      Last updated -
      1
      171
      111
      JavaScript
      MIT License
    • -
      security
      F
      license
      -
      quality
      This server provides an API to query Large Language Models using context from local files, supporting various models and file types for context-aware responses.
      Last updated -
      1
      TypeScript
    • -
      security
      A
      license
      -
      quality
      A server that enables Large Language Models to discover and interact with REST APIs defined by OpenAPI specifications through the Model Context Protocol.
      Last updated -
      1,641
      136
      TypeScript
      MIT License
      • Apple
    • -
      security
      A
      license
      -
      quality
      Bridges Large Language Models with Language Server Protocol interfaces, allowing LLMs to access LSP's hover information, completions, diagnostics, and code actions for improved code suggestions.
      Last updated -
      63
      TypeScript
      MIT License

    View all related MCP servers

    MCP directory API

    We provide all the information about MCP servers via our MCP API.

    curl -X GET 'https://glama.ai/api/mcp/v1/servers/Vic563/Memgpt-MCP-Server'

    If you have feedback or need assistance with the MCP directory API, please join our Discord server