Skip to main content
Glama

Mem0 MCP Server

Official
by mem0ai

Servidor MCP con Mem0 para administrar las preferencias de codificación

Esto demuestra un enfoque estructurado para usar un servidor MCP con mem0 para gestionar las preferencias de codificación de forma eficiente. El servidor se puede usar con Cursor y proporciona herramientas esenciales para almacenar, recuperar y buscar preferencias de codificación.

Instalación

  1. Clonar este repositorio
  2. Inicializar el entorno uv :
uv venv
  1. Activar el entorno virtual:
source .venv/bin/activate
  1. Instalar las dependencias usando uv :
# Install in editable mode from pyproject.toml uv pip install -e .
  1. Actualice el archivo .env en el directorio raíz con su clave API mem0:
MEM0_API_KEY=your_api_key_here

Uso

  1. Inicie el servidor MCP:
uv run main.py
  1. En Cursor, conéctese al punto final SSE, siga este documento como referencia:
http://0.0.0.0:8080/sse
  1. Abra el Compositor en Cursor y cambie al modo Agent .

Demostración con cursor

https://github.com/user-attachments/assets/56670550-fb11-4850-9905-692d3496231c

Características

El servidor proporciona tres herramientas principales para administrar las preferencias de código:

  1. add_coding_preference : Almacena fragmentos de código, detalles de implementación y patrones de codificación con un contexto completo que incluye:
    • Código completo con dependencias
    • Versiones de lenguaje/marco
    • Instrucciones de configuración
    • Documentación y comentarios
    • Ejemplo de uso
    • Mejores prácticas
  2. get_all_coding_preferences : recupera todas las preferencias de codificación almacenadas para analizar patrones, revisar implementaciones y garantizar que no se pierda ninguna información relevante.
  3. search_coding_preferences : Busca semánticamente entre las preferencias de codificación almacenadas para encontrar lo relevante:
    • Implementaciones de código
    • Soluciones de programación
    • Mejores prácticas
    • Guías de configuración
    • Documentación técnica

¿Por qué?

Esta implementación permite un sistema de preferencias de codificación persistente accesible mediante MCP. El servidor basado en SSE puede ejecutarse como un proceso al que los agentes se conectan, usan y desconectan cuando sea necesario. Este patrón se adapta bien a casos de uso nativos de la nube, donde el servidor y los clientes pueden ser procesos desacoplados en nodos diferentes.

Servidor

De forma predeterminada, el servidor se ejecuta en 0.0.0.0:8080 pero se puede configurar con argumentos de línea de comando como:

uv run main.py --host <your host> --port <your port>

El servidor expone un punto final SSE en /sse al que los clientes MCP pueden conectarse para acceder a las herramientas de administración de preferencias de codificación.

-
security - not tested
F
license - not found
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Un servidor MCP que se integra con mem0.ai para ayudar a los usuarios a almacenar, recuperar y buscar preferencias de codificación para prácticas de programación más consistentes.

  1. Instalación
    1. Uso
      1. Demostración con cursor
        1. Características
          1. ¿Por qué?
            1. Servidor

          Related MCP Servers

          • A
            security
            A
            license
            A
            quality
            A custom Memory MCP Server that acts as a cache for Infrastructure-as-Code information, allowing users to store, summarize, and manage notes with a custom URI scheme and simple resource handling.
            Last updated -
            23
            1
            Python
            MIT License
            • Apple
          • -
            security
            F
            license
            -
            quality
            Model Context Protocol (MCP) server implementation for semantic search and memory management using TxtAI. This server provides a robust API for storing, retrieving, and managing text-based memories with semantic search capabilities. You can use Claude and Cline AI Also
            Last updated -
            7
            Python
            • Apple
          • -
            security
            A
            license
            -
            quality
            A Model Context Protocol server that integrates AI assistants with Mem0.ai's persistent memory system, allowing models to store, retrieve, search, and manage different types of memories.
            Last updated -
            9
            Python
            MIT License
            • Apple
          • -
            security
            A
            license
            -
            quality
            A Code Indexing MCP Server that connects AI coding assistants to external codebases, providing accurate and up-to-date code snippets to reduce mistakes and hallucinations.
            Last updated -
            74
            Python
            Apache 2.0

          View all related MCP servers

          MCP directory API

          We provide all the information about MCP servers via our MCP API.

          curl -X GET 'https://glama.ai/api/mcp/v1/servers/mem0ai/mem0-mcp'

          If you have feedback or need assistance with the MCP directory API, please join our Discord server