Discover Awesome MCP Servers
Extend your agent with 10,066 capabilities via MCP servers.
- All10,066
- Developer Tools3,867
- Search1,714
- Research & Data1,557
- AI Integration Systems229
- Cloud Platforms219
- Data & App Analysis181
- Database Interaction177
- Remote Shell Execution165
- Browser Automation147
- Databases145
- Communication137
- AI Content Generation127
- OS Automation120
- Programming Docs Access109
- Content Fetching108
- Note Taking97
- File Systems96
- Version Control93
- Finance91
- Knowledge & Memory90
- Monitoring79
- Security71
- Image & Video Processing69
- Digital Note Management66
- AI Memory Systems62
- Advanced AI Reasoning59
- Git Management Tools58
- Cloud Storage51
- Entertainment & Media43
- Virtualization42
- Location Services35
- Web Automation & Stealth32
- Media Content Processing32
- Calendar Management26
- Ecommerce & Retail18
- Speech Processing18
- Customer Data Platforms16
- Travel & Transportation14
- Education & Learning Tools13
- Home Automation & IoT13
- Web Search Integration12
- Health & Wellness10
- Customer Support10
- Marketing9
- Games & Gamification8
- Google Cloud Integrations7
- Art & Culture4
- Language Translation3
- Legal & Compliance2
Notion MCP Server
Un servidor de Protocolo de Contexto de Modelo que permite a Claude y otros LLMs interactuar con espacios de trabajo de Notion, proporcionando capacidades como buscar, recuperar, crear y actualizar páginas, así como gestionar bases de datos.
Super Windows CLI MCP Server
Un servidor MCP mejorado para la CLI de Windows que proporciona capacidades de acceso irrestricto al sistema, diseñado para entornos de confianza con requisitos de acceso total al sistema.
Azure OpenAI
Aquí tienes una implementación mínima de una aplicación servidor/cliente que utiliza el Protocolo de Contexto de Modelo (MCP) y Azure OpenAI: **Consideraciones:** * **Simplicidad:** Este es un ejemplo simplificado para ilustrar los conceptos básicos. En una aplicación real, necesitarás manejar errores, autenticación, autorización, y otras consideraciones de producción. * **Entorno:** Asumo que tienes configurado un entorno de desarrollo con Python, las bibliotecas necesarias (ver abajo) y acceso a Azure OpenAI. * **Azure OpenAI:** Necesitarás una instancia de Azure OpenAI desplegada y configurada, con un modelo desplegado. Necesitarás la clave API y el endpoint. * **MCP:** El Protocolo de Contexto de Modelo (MCP) es un concepto, no una biblioteca específica. Aquí, lo implementamos directamente con llamadas HTTP. En el futuro, podrían existir bibliotecas que faciliten esto. **Requisitos (Python):** ```bash pip install flask requests ``` **1. Servidor (server.py):** ```python from flask import Flask, request, jsonify import requests import os app = Flask(__name__) # Configuración de Azure OpenAI (reemplaza con tus valores) AZURE_OPENAI_ENDPOINT = os.environ.get("AZURE_OPENAI_ENDPOINT") # Ejemplo: "https://your-resource-name.openai.azure.com/" AZURE_OPENAI_API_KEY = os.environ.get("AZURE_OPENAI_API_KEY") AZURE_OPENAI_DEPLOYMENT_NAME = os.environ.get("AZURE_OPENAI_DEPLOYMENT_NAME") # Ejemplo: "your-deployment-name" AZURE_OPENAI_API_VERSION = "2023-05-15" # Asegúrate de usar una versión compatible @app.route('/mcp/query', methods=['POST']) def mcp_query(): """ Endpoint que recibe una consulta (prompt) y la envía a Azure OpenAI. Implementa el concepto de MCP (aunque de forma muy básica). """ try: data = request.get_json() prompt = data.get('prompt') if not prompt: return jsonify({'error': 'Prompt is required'}), 400 # Construye la solicitud a Azure OpenAI api_url = f"{AZURE_OPENAI_ENDPOINT}openai/deployments/{AZURE_OPENAI_DEPLOYMENT_NAME}/completions?api-version={AZURE_OPENAI_API_VERSION}" headers = { "Content-Type": "application/json", "api-key": AZURE_OPENAI_API_KEY } payload = { "prompt": prompt, "max_tokens": 150, # Ajusta según sea necesario "n": 1, "stop": None, "temperature": 0.7, } # Envía la solicitud a Azure OpenAI response = requests.post(api_url, headers=headers, json=payload) response.raise_for_status() # Lanza una excepción si hay un error HTTP # Procesa la respuesta de Azure OpenAI response_data = response.json() completion = response_data['choices'][0]['text'] # Devuelve la respuesta al cliente return jsonify({'completion': completion}) except Exception as e: print(f"Error: {e}") return jsonify({'error': str(e)}), 500 if __name__ == '__main__': app.run(debug=True, port=5000) ``` **2. Cliente (client.py):** ```python import requests import json SERVER_URL = "http://localhost:5000/mcp/query" # Ajusta si el servidor está en otra dirección def send_query(prompt): """ Envía una consulta al servidor MCP. """ try: headers = {'Content-Type': 'application/json'} payload = {'prompt': prompt} response = requests.post(SERVER_URL, headers=headers, data=json.dumps(payload)) response.raise_for_status() # Lanza una excepción si hay un error HTTP data = response.json() return data.get('completion') except requests.exceptions.RequestException as e: print(f"Error al conectar con el servidor: {e}") return None except Exception as e: print(f"Error al procesar la respuesta: {e}") return None if __name__ == '__main__': query = "Escribe un breve poema sobre la lluvia." completion = send_query(query) if completion: print(f"Consulta: {query}") print(f"Respuesta: {completion}") else: print("No se pudo obtener una respuesta.") ``` **Cómo ejecutar:** 1. **Configura las variables de entorno:** Antes de ejecutar el servidor, asegúrate de configurar las variables de entorno `AZURE_OPENAI_ENDPOINT`, `AZURE_OPENAI_API_KEY` y `AZURE_OPENAI_DEPLOYMENT_NAME`. Puedes hacerlo en tu terminal antes de ejecutar el script: ```bash export AZURE_OPENAI_ENDPOINT="https://your-resource-name.openai.azure.com/" export AZURE_OPENAI_API_KEY="tu_clave_api" export AZURE_OPENAI_DEPLOYMENT_NAME="your-deployment-name" ``` Reemplaza los valores con los tuyos. También puedes usar un archivo `.env` y una biblioteca como `python-dotenv` para cargar las variables. 2. **Ejecuta el servidor:** ```bash python server.py ``` 3. **Ejecuta el cliente:** ```bash python client.py ``` **Explicación:** * **Servidor (server.py):** * Utiliza Flask para crear un servidor web simple. * Define un endpoint `/mcp/query` que acepta solicitudes POST con un `prompt` en formato JSON. * Toma el `prompt` del cuerpo de la solicitud. * Construye una solicitud a la API de Azure OpenAI. **Importante:** Reemplaza los valores de `AZURE_OPENAI_ENDPOINT`, `AZURE_OPENAI_API_KEY` y `AZURE_OPENAI_DEPLOYMENT_NAME` con tus credenciales y el nombre de tu despliegue. * Envía la solicitud a Azure OpenAI usando la biblioteca `requests`. * Procesa la respuesta de Azure OpenAI y extrae la `completion`. * Devuelve la `completion` al cliente en formato JSON. * Maneja errores y devuelve códigos de estado HTTP apropiados. * **Cliente (client.py):** * Define la URL del servidor. * Define una función `send_query` que envía una solicitud POST al servidor con el `prompt` en formato JSON. * Recibe la respuesta del servidor y extrae la `completion`. * Imprime la consulta y la respuesta. * Maneja errores de conexión y procesamiento de la respuesta. **Concepto de MCP (Protocolo de Contexto de Modelo):** En este ejemplo, el concepto de MCP se implementa de la siguiente manera: * El servidor actúa como un intermediario entre el cliente y el modelo de lenguaje (Azure OpenAI). * El cliente envía una consulta (prompt) al servidor. * El servidor se encarga de: * Formatear la consulta para que sea compatible con el modelo de lenguaje. * Enviar la consulta al modelo de lenguaje. * Procesar la respuesta del modelo de lenguaje. * Devolver la respuesta al cliente en un formato consistente. En una implementación más compleja de MCP, el servidor podría también: * Gestionar el contexto de la conversación (historial de mensajes). * Aplicar reglas de seguridad y privacidad. * Realizar preprocesamiento y postprocesamiento de la consulta y la respuesta. * Seleccionar el modelo de lenguaje más adecuado para la consulta. **Mejoras:** * **Manejo de errores robusto:** Implementa un manejo de errores más completo en ambos lados (servidor y cliente). * **Autenticación y autorización:** Agrega autenticación y autorización para proteger el endpoint del servidor. * **Logging:** Implementa logging para rastrear las solicitudes y respuestas. * **Contexto de conversación:** Implementa la gestión del contexto de la conversación para permitir interacciones más complejas. * **Configuración:** Utiliza un archivo de configuración para almacenar la configuración del servidor y del cliente. * **Asincronía:** Considera usar `asyncio` para manejar las solicitudes de forma asíncrona, especialmente si esperas un alto volumen de tráfico. * **Validación de datos:** Valida los datos de entrada (prompt) en el servidor para prevenir ataques. * **Implementación de un esquema MCP más completo:** Define un esquema JSON para las solicitudes y respuestas MCP para garantizar la interoperabilidad. Este ejemplo proporciona un punto de partida para construir una aplicación más completa que utiliza el Protocolo de Contexto de Modelo y Azure OpenAI. Recuerda adaptar el código a tus necesidades específicas.

mcp-local-dev
Crea entornos de desarrollo locales aislados directamente desde Github y ejecuta pruebas, consulta la cobertura y ¡mucho más! Compatible con Python, Node, Bun y muchos frameworks de pruebas.
MCP-LOGO-GEN
MCP Tool Server for Logo Generation. This server provides logo generation capabilities using FAL AI, with tools for image generation, background removal, and image scaling.

Filesystem MCP Server
Cline Personas MCP Server
Un servidor MCP para gestionar y activar plantillas y componentes de persona escribiendo en archivos .clinerules, que admite el seguimiento de versiones y el almacenamiento basado en archivos.
MCP Server Make
Un servidor de Protocolo de Contexto de Modelo que permite a los LLM ejecutar de forma segura objetivos "make" desde un Makefile, permitiendo a los asistentes de IA ejecutar pruebas, formatear código y automatizar diversas tareas de desarrollo a través de la interacción en lenguaje natural.
Face Generator MCP Server
Genera imágenes realistas de rostros humanos que no representan a personas reales, ofreciendo varias formas de salida, dimensiones configurables y capacidades de generación por lotes.
Cursor A11y MCP
Proporciona capacidades de pruebas de accesibilidad a través de la CLI, ayudando a identificar problemas de accesibilidad en aplicaciones web utilizando axe-core y Puppeteer.
MCP-AppleMusic
Facilita el control de Apple Music en macOS a través de AppleScript mediante comandos MCP, lo que permite a los usuarios gestionar la reproducción, buscar pistas y crear listas de reproducción.
kb-mcp-server
Un servidor MCP diseñado para ser portátil, local, fácil y conveniente para soportar la recuperación semántica/basada en grafos de la base de datos de embeddings "todo en uno" de txtai. Cualquier base de datos de embeddings de txtai en formato tar.gz puede ser cargada.
mcp-maigret
MCP server for maigret, a powerful OSINT tool that collects user account information from various public sources. This server provides tools for searching usernames across social networks and analyzing URLs.

mcp-image-downloader
Permite a los asistentes de IA descargar imágenes desde URLs y realizar tareas básicas de optimización de imágenes.
MCP Journaling Server
El servidor MCP transforma los chats con Claude en sesiones de diario, guardando las conversaciones localmente y permitiendo que el LLM recupere sesiones anteriores para crear continuidad en las discusiones sobre las actividades diarias.
Filesystem MCP Server
Servidor Go que implementa el Protocolo de Contexto de Modelo (MCP) para operaciones del sistema de archivos.
Veri5ight MCP Server
Permite a Claude interactuar con nodos de Ethereum, lo que permite a los usuarios verificar los saldos de tokens ENS, ver el código de contratos inteligentes y decodificar transacciones a través del lenguaje natural.

Browser Use Server
Permite la automatización del navegador utilizando scripts de Python, ofreciendo operaciones como tomar capturas de pantalla de páginas web, recuperar contenido HTML y ejecutar JavaScript.

Video Editor MCP Server
Permite la edición de video utilizando comandos de lenguaje natural impulsados por FFmpeg, admitiendo operaciones como recortar, fusionar, conversión de formato y más, con seguimiento del progreso en tiempo real y manejo de errores.
Crawl4AI MCP Server
Crawl4AI MCP Server es un servidor de recuperación de información inteligente que ofrece capacidades de búsqueda robustas y comprensión de contenido web optimizada para LLM, utilizando búsqueda multi-motor y extracción de contenido inteligente para recopilar y comprender eficientemente la información de internet.

Tesla MCP Server
Un servidor de Protocolo de Contexto de Modelo que se conecta a la API de Flota de Tesla, permitiendo a asistentes de IA como Claude controlar vehículos Tesla y acceder a información del vehículo a través de comandos en lenguaje natural.

Git Auto Commit MCP Server
Analiza los cambios de Git en repositorios y genera mensajes de commit convencionales utilizando los modelos GPT de OpenAI, admitiendo tanto los cambios preparados (staged) como los no preparados (unstaged) con resúmenes detallados.
Chroma MCP Server
Un servidor de Protocolo de Contexto de Modelo que proporciona capacidades de base de datos vectorial a través de Chroma, permitiendo la búsqueda semántica de documentos, el filtrado de metadatos y la gestión de documentos con almacenamiento persistente.
YouTube MCP Server
Utiliza yt-dlp para descargar subtítulos de YouTube y lo conecta a claude.ai a través del Protocolo de Contexto del Modelo.
Claude Desktop API MCP
Un servidor que permite a los usuarios de Claude Desktop acceder directamente a la API de Claude, permitiéndoles evitar las limitaciones del Plan Profesional y utilizar funciones avanzadas como indicaciones del sistema personalizadas y la gestión de conversaciones.

Airbyte Status Checker
Un servidor MCP para Claude Desktop que permite a los usuarios verificar el estado de sus conexiones de Airbyte.

MacOS Clipboard MCP Server
Proporciona a los asistentes de IA acceso al contenido del portapapeles de macOS, admitiendo texto, imágenes y datos binarios a través de OSAScript.

PDF to PNG MCP Server
A Model Context Protocol server that converts PDF documents into PNG images through a simple MCP tool call.

MCP Server Memory File
Un servidor MCP que permite a Claude y otros LLMs gestionar memorias persistentes a través de las conversaciones mediante el almacenamiento de archivos de texto, habilitando comandos para agregar, buscar, eliminar y listar entradas de memoria.

Uber Eats MCP Server
Un servidor de prueba de concepto que implementa el Protocolo de Contexto del Modelo, el cual permite que las aplicaciones LLM interactúen con la funcionalidad de Uber Eats.