Servidor MCP para CRM con IA
DavidHolguin
README
Servidor MCP para CRM con IA
Este servidor implementa el Protocolo de Contexto de Modelo (MCP) para proporcionar una capa segura de procesamiento de datos entre el CRM y los modelos de lenguaje (LLM).
Características Principales
1. Seguridad de Datos
- Anonimización automática de datos personales
- Sistema de tokens para mantener la trazabilidad sin exponer información sensible
- Validación de datos antes del procesamiento con LLMs
2. Integración con Chatbots
- Manejo de contexto conversacional
- Sistema de Q&A con retroalimentación
- Evaluación continua de calidad de respuestas
3. Análisis de Leads
- Evaluación automática de potencial
- Seguimiento de interacciones
- Métricas de engagement
- Todo sin exponer datos personales
Configuración
- Crear archivo
.env
con las siguientes variables:
SECRET_KEY="your-secure-secret-key"
DATABASE_URL="your-supabase-postgres-url"
SUPABASE_URL="your-supabase-url"
SUPABASE_KEY="your-supabase-key"
SUPABASE_JWT_SECRET="your-jwt-secret"
DEFAULT_LLM_PROVIDER="openai"
DEFAULT_LLM_MODEL="gpt-4"
LLM_API_KEY="your-openai-api-key"
- Instalar dependencias:
pip install -r requirements.txt
- Iniciar el servidor:
uvicorn app.main:app --reload
Endpoints
Tokens y Autenticación
- POST
/api/v1/tokens/generate
: Genera tokens de acceso
Mensajes
- POST
/api/v1/messages/sanitize
: Sanitiza mensajes para procesamiento - POST
/api/v1/chatbot/context
: Gestiona contexto del chatbot - POST
/api/v1/qa-pairs
: Crea pares de pregunta-respuesta - POST
/api/v1/evaluate
: Evalúa mensajes con LLM
Análisis
- POST
/api/v1/analyze-lead
: Analiza leads de forma segura - GET
/api/v1/lead-metrics/{lead_id}
: Obtiene métricas históricas
Arquitectura de Seguridad
-
Capa de Anonimización
- Sanitización de datos personales
- Generación de tokens anónimos
- Validación de contenido
-
Capa de Contexto
- Manejo de contexto conversacional
- Sistema de Q&A
- Historial sanitizado
-
Capa de Análisis
- Evaluación de leads
- Métricas y seguimiento
- Reportes agregados
Integración con Base de Datos
El servidor utiliza Supabase como backend, con las siguientes tablas principales:
mensajes_sanitizados
: Almacena versiones sanitizadas de mensajescontexto_conversacional
: Mantiene el contexto de conversacionespii_tokens
: Gestiona tokens anónimoschatbot_contextos
: Configuración de chatbotsqa_pares
: Pares pregunta-respuesta para entrenamientoevaluaciones_llm
: Resultados de evaluaciones
Mejoras Continuas
El sistema incluye:
- Evaluación automática de calidad de respuestas
- Retroalimentación para mejora continua
- Métricas de rendimiento del LLM
Recommended Servers
playwright-mcp
A Model Context Protocol server that enables LLMs to interact with web pages through structured accessibility snapshots without requiring vision models or screenshots.
Magic Component Platform (MCP)
An AI-powered tool that generates modern UI components from natural language descriptions, integrating with popular IDEs to streamline UI development workflow.
MCP Package Docs Server
Facilitates LLMs to efficiently access and fetch structured documentation for packages in Go, Python, and NPM, enhancing software development with multi-language support and performance optimization.
Claude Code MCP
An implementation of Claude Code as a Model Context Protocol server that enables using Claude's software engineering capabilities (code generation, editing, reviewing, and file operations) through the standardized MCP interface.
@kazuph/mcp-taskmanager
Model Context Protocol server for Task Management. This allows Claude Desktop (or any MCP client) to manage and execute tasks in a queue-based system.
Linear MCP Server
Enables interaction with Linear's API for managing issues, teams, and projects programmatically through the Model Context Protocol.
mermaid-mcp-server
A Model Context Protocol (MCP) server that converts Mermaid diagrams to PNG images.
Jira-Context-MCP
MCP server to provide Jira Tickets information to AI coding agents like Cursor

Linear MCP Server
A Model Context Protocol server that integrates with Linear's issue tracking system, allowing LLMs to create, update, search, and comment on Linear issues through natural language interactions.

Sequential Thinking MCP Server
This server facilitates structured problem-solving by breaking down complex issues into sequential steps, supporting revisions, and enabling multiple solution paths through full MCP integration.