mcp-memory-server
An advanced contextual memory server for agent orchestration providing chronological history, semantic vector search via Redis Stack, and temporary scratchpad storage. It also enables context compression through history rollups and facilitates inter-agent communication using a Redis-based Pub/Sub system.
README
mcp-memory-server
Servidor MCP de memoria contextual y avanzada sobre Redis: listas cronológicas, memoria semántica (Redis Stack), rollup de historial, scratchpad con TTL y Pub/Sub inter-agente. Pensado para orquestación de agentes.
Arquitectura (hexagonal mínima)
- domain/ — Contrato de resultado (
ToolResult,toolErrorResult,errorToToolResult). Sin I/O. - ports/ — Interfaces:
ContextualMemoryPort,SemanticMemoryPort,ScratchpadPort,EventPublisherPort. - application/ — Casos de uso que reciben un puerto y devuelven
ToolResult(formateo y reglas de negocio). - adapters/redis/ — Implementación de los puertos con ioredis (y RediSearch para semántica).
- adapters/mcp/ — Schemas Zod y registro de tools en el servidor MCP; cada tool parsea input y llama al caso de uso con el puerto inyectado.
El entrypoint (index.ts) crea el cliente Redis, instancia los adaptadores y arranca el servidor con startServer(ports).
Herramientas (Tools)
Memoria cronológica (listas)
| Nombre | Parámetros | Descripción |
|---|---|---|
get_recent_context |
agent_key, limit (opcional, default 5) |
Últimas N entradas de la bitácora (hidratación del agente). |
append_contextual_memory |
agent_key, new_entry |
Registra un nuevo hito en la bitácora. |
get_all_context |
agent_key |
Historial completo (para orquestador o resumen). |
Memoria semántica (Redis Stack; búsqueda por similitud)
| Nombre | Parámetros | Descripción |
|---|---|---|
append_semantic_memory |
agent_key, embedding (number[]), content, metadata (opcional) |
Guarda un recuerdo con vector para búsqueda asociativa. |
search_semantic_memory |
agent_key, embedding, top_k (opcional, default 5), score_threshold (opcional) |
"Tráeme recuerdos similares a este contexto". |
Rollup / compresión
| Nombre | Parámetros | Descripción |
|---|---|---|
get_memory_stats |
agent_key |
Cantidad de entradas y primera/última ts; para decidir cuándo hacer rollup. |
rollup_memory_segment |
agent_key, keep_last (default 20), summary_entry |
Reemplaza entradas antiguas por un ítem [RESUMEN HISTÓRICO]; el orquestador genera el resumen y pasa el texto. |
Scratchpad (TTL)
| Nombre | Parámetros | Descripción |
|---|---|---|
set_scratchpad_entry |
agent_key, name, value, ttl_seconds (opcional, default 3600) |
Guarda dato temporal; Redis lo borra al expirar. |
get_scratchpad_entry |
agent_key, name |
Lee un scratchpad. |
clear_scratchpad_entry |
agent_key, name |
Borra antes del TTL. |
Comunicación inter-agente (Pub/Sub)
| Nombre | Parámetros | Descripción |
|---|---|---|
publish_interagent_message |
channel, sender_agent_key, payload |
Publica en un canal; agentes suscritos (fuera del MCP) lo reciben. |
get_channel_log |
channel, limit (opcional, default 20) |
Lee los últimos mensajes del log del canal (para quien no mantiene suscripción). |
Nota: El MCP no mantiene suscripciones; solo publica y escribe en log. La recepción en tiempo real la hace un proceso que ejecute SUBSCRIBE en Redis.
Datos en Redis: listas por agent_key con JSON {ts, entry, type?}; memoria semántica en hashes con RediSearch; scratchpad en claves con EX; canales con prefijo channel:.
Cómo ejecutar
Con Cursor (MCP en host, Redis en Docker)
- Levantar Redis: desde la raíz del repo:
docker compose up -d redis_db - En
mcp-memory-server:cd mcp-memory-server npm install npm run build - En
.cursor/mcp.json(raíz del workspace) añadí el servidor. Reiniciar Cursor tras cambiarmcp.json.
Cursor: uso standalone (repo por separado)
Si este repo se usa solo (sin orquestador), en la raíz del proyecto donde está mcp-memory-server:
npm install && npm run build
En .cursor/mcp.json del workspace que use este MCP:
"mcp-memory-server": {
"command": "node",
"args": ["mcp-memory-server/dist/index.js"],
"env": {
"REDIS_URL": "redis://localhost:6379"
}
}
Si el MCP está en otra ruta, ajustá args (ej. path absoluto o relativo al cwd de Cursor).
Todo en Docker
docker compose up -d
El servicio mcp_memory_server corre dentro de la red; para uso por stdio desde Cursor hay que ejecutar el MCP en el host (ver arriba).
Orquestación y prompts de ejemplo
Prompt para el agente (memoria cronológica)
Eres un arquitecto experto. Para recordar en qué estás trabajando, usa la herramienta de memoria con la clave
agent:arq_1. Al empezar, llama aget_recent_contextcon esa clave; cuando completes un paso, usaappend_contextual_memorycon la misma clave y un resumen breve.
Playbook orquestador (cuándo llamar cada tool)
- Hidratación (agente):
get_recent_context(agent_key, limit)— solo los últimos 5 (o N) pasos. - Trabajo (agente):
append_contextual_memory(agent_key, new_entry)— registrar hitos. - Memoria a largo plazo: El orquestador (o el agente) genera embeddings y usa
append_semantic_memory; para recuperar contexto similar,search_semantic_memorycon el embedding de la consulta actual. - Compresión: Si
get_memory_stats(agent_key)devuelve más de 100 entradas, el orquestador puede generar un resumen de las más antiguas y llamarrollup_memory_segment(agent_key, keep_last: 20, summary_entry: "[RESUMEN HISTÓRICO] ..."). - Pensamientos efímeros: El agente usa
set_scratchpad_entrypara cálculos o planes de la tarea actual (TTL ej. 1h);get_scratchpad_entrypara leer;clear_scratchpad_entrysi termina antes. - Comunicación: Un agente publica en
publish_interagent_message(channel: "backend_devs", sender_agent_key, payload); otro puede leer el log conget_channel_log("backend_devs")si no está suscrito. - Resumen final (orquestador):
get_all_context(agent_key)para pasar el historial a otro modelo o resumir.
Referencia de patrones: .cursor/skills/orchestration-patterns.
Variables de entorno
| Variable | Obligatoria | Descripción |
|---|---|---|
REDIS_URL |
Sí | URL de Redis (ej. redis://localhost:6379, en Docker redis://redis_db:6379). |
SEMANTIC_INDEX_NAME |
No | Nombre del índice RediSearch para memoria semántica (default: idx:semantic_memory). |
SEMANTIC_VECTOR_DIM |
No | Dimensión del vector de embeddings (default: 1536). |
SEMANTIC_DISTANCE_METRIC |
No | Métrica de distancia: COSINE, L2 o IP (default: COSINE). |
Memoria semántica requiere Redis Stack (RediSearch + Vector Search). El docker-compose.yml usa redis/redis-stack-server:latest. Si usas Redis sin Stack, las tools de memoria semántica fallarán; el resto (cronológica, scratchpad, pub/sub) funciona con Redis estándar.
No guardar secrets en el repo; documentar aquí y usar env en mcp.json o en el contenedor.
Tests y desarrollo
- Tests:
npm test(Vitest; tools con mock de Redis). - Desarrollo:
npm run dev(tsx watch) con Redis levantado.
Spec y dependencias
- MCP: modelcontextprotocol.io/specification/2025-11-25
- SDK:
@modelcontextprotocol/sdk - Redis:
ioredis; Redis Stack para memoria semántica (RediSearch + Vector Search). Listas, hashes, strings con TTL, Pub/Sub.
Recommended Servers
playwright-mcp
A Model Context Protocol server that enables LLMs to interact with web pages through structured accessibility snapshots without requiring vision models or screenshots.
Magic Component Platform (MCP)
An AI-powered tool that generates modern UI components from natural language descriptions, integrating with popular IDEs to streamline UI development workflow.
Audiense Insights MCP Server
Enables interaction with Audiense Insights accounts via the Model Context Protocol, facilitating the extraction and analysis of marketing insights and audience data including demographics, behavior, and influencer engagement.
VeyraX MCP
Single MCP tool to connect all your favorite tools: Gmail, Calendar and 40 more.
graphlit-mcp-server
The Model Context Protocol (MCP) Server enables integration between MCP clients and the Graphlit service. Ingest anything from Slack to Gmail to podcast feeds, in addition to web crawling, into a Graphlit project - and then retrieve relevant contents from the MCP client.
Kagi MCP Server
An MCP server that integrates Kagi search capabilities with Claude AI, enabling Claude to perform real-time web searches when answering questions that require up-to-date information.
E2B
Using MCP to run code via e2b.
Neon Database
MCP server for interacting with Neon Management API and databases
Exa Search
A Model Context Protocol (MCP) server lets AI assistants like Claude use the Exa AI Search API for web searches. This setup allows AI models to get real-time web information in a safe and controlled way.
Qdrant Server
This repository is an example of how to create a MCP server for Qdrant, a vector search engine.