Discover Awesome MCP Servers

Extend your agent with 10,066 capabilities via MCP servers.

All10,066
Notion MCP Server

Notion MCP Server

Un servidor de Protocolo de Contexto de Modelo que permite a Claude y otros LLMs interactuar con espacios de trabajo de Notion, proporcionando capacidades como buscar, recuperar, crear y actualizar páginas, así como gestionar bases de datos.

Local
TypeScript
Super Windows CLI MCP Server

Super Windows CLI MCP Server

Un servidor MCP mejorado para la CLI de Windows que proporciona capacidades de acceso irrestricto al sistema, diseñado para entornos de confianza con requisitos de acceso total al sistema.

Local
TypeScript
Azure OpenAI

Azure OpenAI

Aquí tienes una implementación mínima de una aplicación servidor/cliente que utiliza el Protocolo de Contexto de Modelo (MCP) y Azure OpenAI: **Consideraciones:** * **Simplicidad:** Este es un ejemplo simplificado para ilustrar los conceptos básicos. En una aplicación real, necesitarás manejar errores, autenticación, autorización, y otras consideraciones de producción. * **Entorno:** Asumo que tienes configurado un entorno de desarrollo con Python, las bibliotecas necesarias (ver abajo) y acceso a Azure OpenAI. * **Azure OpenAI:** Necesitarás una instancia de Azure OpenAI desplegada y configurada, con un modelo desplegado. Necesitarás la clave API y el endpoint. * **MCP:** El Protocolo de Contexto de Modelo (MCP) es un concepto, no una biblioteca específica. Aquí, lo implementamos directamente con llamadas HTTP. En el futuro, podrían existir bibliotecas que faciliten esto. **Requisitos (Python):** ```bash pip install flask requests ``` **1. Servidor (server.py):** ```python from flask import Flask, request, jsonify import requests import os app = Flask(__name__) # Configuración de Azure OpenAI (reemplaza con tus valores) AZURE_OPENAI_ENDPOINT = os.environ.get("AZURE_OPENAI_ENDPOINT") # Ejemplo: "https://your-resource-name.openai.azure.com/" AZURE_OPENAI_API_KEY = os.environ.get("AZURE_OPENAI_API_KEY") AZURE_OPENAI_DEPLOYMENT_NAME = os.environ.get("AZURE_OPENAI_DEPLOYMENT_NAME") # Ejemplo: "your-deployment-name" AZURE_OPENAI_API_VERSION = "2023-05-15" # Asegúrate de usar una versión compatible @app.route('/mcp/query', methods=['POST']) def mcp_query(): """ Endpoint que recibe una consulta (prompt) y la envía a Azure OpenAI. Implementa el concepto de MCP (aunque de forma muy básica). """ try: data = request.get_json() prompt = data.get('prompt') if not prompt: return jsonify({'error': 'Prompt is required'}), 400 # Construye la solicitud a Azure OpenAI api_url = f"{AZURE_OPENAI_ENDPOINT}openai/deployments/{AZURE_OPENAI_DEPLOYMENT_NAME}/completions?api-version={AZURE_OPENAI_API_VERSION}" headers = { "Content-Type": "application/json", "api-key": AZURE_OPENAI_API_KEY } payload = { "prompt": prompt, "max_tokens": 150, # Ajusta según sea necesario "n": 1, "stop": None, "temperature": 0.7, } # Envía la solicitud a Azure OpenAI response = requests.post(api_url, headers=headers, json=payload) response.raise_for_status() # Lanza una excepción si hay un error HTTP # Procesa la respuesta de Azure OpenAI response_data = response.json() completion = response_data['choices'][0]['text'] # Devuelve la respuesta al cliente return jsonify({'completion': completion}) except Exception as e: print(f"Error: {e}") return jsonify({'error': str(e)}), 500 if __name__ == '__main__': app.run(debug=True, port=5000) ``` **2. Cliente (client.py):** ```python import requests import json SERVER_URL = "http://localhost:5000/mcp/query" # Ajusta si el servidor está en otra dirección def send_query(prompt): """ Envía una consulta al servidor MCP. """ try: headers = {'Content-Type': 'application/json'} payload = {'prompt': prompt} response = requests.post(SERVER_URL, headers=headers, data=json.dumps(payload)) response.raise_for_status() # Lanza una excepción si hay un error HTTP data = response.json() return data.get('completion') except requests.exceptions.RequestException as e: print(f"Error al conectar con el servidor: {e}") return None except Exception as e: print(f"Error al procesar la respuesta: {e}") return None if __name__ == '__main__': query = "Escribe un breve poema sobre la lluvia." completion = send_query(query) if completion: print(f"Consulta: {query}") print(f"Respuesta: {completion}") else: print("No se pudo obtener una respuesta.") ``` **Cómo ejecutar:** 1. **Configura las variables de entorno:** Antes de ejecutar el servidor, asegúrate de configurar las variables de entorno `AZURE_OPENAI_ENDPOINT`, `AZURE_OPENAI_API_KEY` y `AZURE_OPENAI_DEPLOYMENT_NAME`. Puedes hacerlo en tu terminal antes de ejecutar el script: ```bash export AZURE_OPENAI_ENDPOINT="https://your-resource-name.openai.azure.com/" export AZURE_OPENAI_API_KEY="tu_clave_api" export AZURE_OPENAI_DEPLOYMENT_NAME="your-deployment-name" ``` Reemplaza los valores con los tuyos. También puedes usar un archivo `.env` y una biblioteca como `python-dotenv` para cargar las variables. 2. **Ejecuta el servidor:** ```bash python server.py ``` 3. **Ejecuta el cliente:** ```bash python client.py ``` **Explicación:** * **Servidor (server.py):** * Utiliza Flask para crear un servidor web simple. * Define un endpoint `/mcp/query` que acepta solicitudes POST con un `prompt` en formato JSON. * Toma el `prompt` del cuerpo de la solicitud. * Construye una solicitud a la API de Azure OpenAI. **Importante:** Reemplaza los valores de `AZURE_OPENAI_ENDPOINT`, `AZURE_OPENAI_API_KEY` y `AZURE_OPENAI_DEPLOYMENT_NAME` con tus credenciales y el nombre de tu despliegue. * Envía la solicitud a Azure OpenAI usando la biblioteca `requests`. * Procesa la respuesta de Azure OpenAI y extrae la `completion`. * Devuelve la `completion` al cliente en formato JSON. * Maneja errores y devuelve códigos de estado HTTP apropiados. * **Cliente (client.py):** * Define la URL del servidor. * Define una función `send_query` que envía una solicitud POST al servidor con el `prompt` en formato JSON. * Recibe la respuesta del servidor y extrae la `completion`. * Imprime la consulta y la respuesta. * Maneja errores de conexión y procesamiento de la respuesta. **Concepto de MCP (Protocolo de Contexto de Modelo):** En este ejemplo, el concepto de MCP se implementa de la siguiente manera: * El servidor actúa como un intermediario entre el cliente y el modelo de lenguaje (Azure OpenAI). * El cliente envía una consulta (prompt) al servidor. * El servidor se encarga de: * Formatear la consulta para que sea compatible con el modelo de lenguaje. * Enviar la consulta al modelo de lenguaje. * Procesar la respuesta del modelo de lenguaje. * Devolver la respuesta al cliente en un formato consistente. En una implementación más compleja de MCP, el servidor podría también: * Gestionar el contexto de la conversación (historial de mensajes). * Aplicar reglas de seguridad y privacidad. * Realizar preprocesamiento y postprocesamiento de la consulta y la respuesta. * Seleccionar el modelo de lenguaje más adecuado para la consulta. **Mejoras:** * **Manejo de errores robusto:** Implementa un manejo de errores más completo en ambos lados (servidor y cliente). * **Autenticación y autorización:** Agrega autenticación y autorización para proteger el endpoint del servidor. * **Logging:** Implementa logging para rastrear las solicitudes y respuestas. * **Contexto de conversación:** Implementa la gestión del contexto de la conversación para permitir interacciones más complejas. * **Configuración:** Utiliza un archivo de configuración para almacenar la configuración del servidor y del cliente. * **Asincronía:** Considera usar `asyncio` para manejar las solicitudes de forma asíncrona, especialmente si esperas un alto volumen de tráfico. * **Validación de datos:** Valida los datos de entrada (prompt) en el servidor para prevenir ataques. * **Implementación de un esquema MCP más completo:** Define un esquema JSON para las solicitudes y respuestas MCP para garantizar la interoperabilidad. Este ejemplo proporciona un punto de partida para construir una aplicación más completa que utiliza el Protocolo de Contexto de Modelo y Azure OpenAI. Recuerda adaptar el código a tus necesidades específicas.

Local
Python
mcp-local-dev

mcp-local-dev

Crea entornos de desarrollo locales aislados directamente desde Github y ejecuta pruebas, consulta la cobertura y ¡mucho más! Compatible con Python, Node, Bun y muchos frameworks de pruebas.

Local
Python
MCP-LOGO-GEN

MCP-LOGO-GEN

MCP Tool Server for Logo Generation. This server provides logo generation capabilities using FAL AI, with tools for image generation, background removal, and image scaling.

Local
Python
Filesystem MCP Server

Filesystem MCP Server

Local
JavaScript
Cline Personas MCP Server

Cline Personas MCP Server

Un servidor MCP para gestionar y activar plantillas y componentes de persona escribiendo en archivos .clinerules, que admite el seguimiento de versiones y el almacenamiento basado en archivos.

Local
TypeScript
MCP Server Make

MCP Server Make

Un servidor de Protocolo de Contexto de Modelo que permite a los LLM ejecutar de forma segura objetivos "make" desde un Makefile, permitiendo a los asistentes de IA ejecutar pruebas, formatear código y automatizar diversas tareas de desarrollo a través de la interacción en lenguaje natural.

Local
Python
Face Generator MCP Server

Face Generator MCP Server

Genera imágenes realistas de rostros humanos que no representan a personas reales, ofreciendo varias formas de salida, dimensiones configurables y capacidades de generación por lotes.

Local
JavaScript
Cursor A11y MCP

Cursor A11y MCP

Proporciona capacidades de pruebas de accesibilidad a través de la CLI, ayudando a identificar problemas de accesibilidad en aplicaciones web utilizando axe-core y Puppeteer.

Local
JavaScript
MCP-AppleMusic

MCP-AppleMusic

Facilita el control de Apple Music en macOS a través de AppleScript mediante comandos MCP, lo que permite a los usuarios gestionar la reproducción, buscar pistas y crear listas de reproducción.

Local
Python
kb-mcp-server

kb-mcp-server

Un servidor MCP diseñado para ser portátil, local, fácil y conveniente para soportar la recuperación semántica/basada en grafos de la base de datos de embeddings "todo en uno" de txtai. Cualquier base de datos de embeddings de txtai en formato tar.gz puede ser cargada.

Local
Python
mcp-maigret

mcp-maigret

MCP server for maigret, a powerful OSINT tool that collects user account information from various public sources. This server provides tools for searching usernames across social networks and analyzing URLs.

Local
JavaScript
mcp-image-downloader

mcp-image-downloader

Permite a los asistentes de IA descargar imágenes desde URLs y realizar tareas básicas de optimización de imágenes.

Local
JavaScript
MCP Journaling Server

MCP Journaling Server

El servidor MCP transforma los chats con Claude en sesiones de diario, guardando las conversaciones localmente y permitiendo que el LLM recupere sesiones anteriores para crear continuidad en las discusiones sobre las actividades diarias.

Local
Python
Filesystem MCP Server

Filesystem MCP Server

Servidor Go que implementa el Protocolo de Contexto de Modelo (MCP) para operaciones del sistema de archivos.

Local
Go
Veri5ight MCP Server

Veri5ight MCP Server

Permite a Claude interactuar con nodos de Ethereum, lo que permite a los usuarios verificar los saldos de tokens ENS, ver el código de contratos inteligentes y decodificar transacciones a través del lenguaje natural.

Local
JavaScript
Browser Use Server

Browser Use Server

Permite la automatización del navegador utilizando scripts de Python, ofreciendo operaciones como tomar capturas de pantalla de páginas web, recuperar contenido HTML y ejecutar JavaScript.

Local
Python
Video Editor MCP Server

Video Editor MCP Server

Permite la edición de video utilizando comandos de lenguaje natural impulsados por FFmpeg, admitiendo operaciones como recortar, fusionar, conversión de formato y más, con seguimiento del progreso en tiempo real y manejo de errores.

Local
Python
Crawl4AI MCP Server

Crawl4AI MCP Server

Crawl4AI MCP Server es un servidor de recuperación de información inteligente que ofrece capacidades de búsqueda robustas y comprensión de contenido web optimizada para LLM, utilizando búsqueda multi-motor y extracción de contenido inteligente para recopilar y comprender eficientemente la información de internet.

Local
Python
Tesla MCP Server

Tesla MCP Server

Un servidor de Protocolo de Contexto de Modelo que se conecta a la API de Flota de Tesla, permitiendo a asistentes de IA como Claude controlar vehículos Tesla y acceder a información del vehículo a través de comandos en lenguaje natural.

Local
TypeScript
Git Auto Commit MCP Server

Git Auto Commit MCP Server

Analiza los cambios de Git en repositorios y genera mensajes de commit convencionales utilizando los modelos GPT de OpenAI, admitiendo tanto los cambios preparados (staged) como los no preparados (unstaged) con resúmenes detallados.

Local
TypeScript
Chroma MCP Server

Chroma MCP Server

Un servidor de Protocolo de Contexto de Modelo que proporciona capacidades de base de datos vectorial a través de Chroma, permitiendo la búsqueda semántica de documentos, el filtrado de metadatos y la gestión de documentos con almacenamiento persistente.

Local
Python
YouTube MCP Server

YouTube MCP Server

Utiliza yt-dlp para descargar subtítulos de YouTube y lo conecta a claude.ai a través del Protocolo de Contexto del Modelo.

Local
JavaScript
Claude Desktop API MCP

Claude Desktop API MCP

Un servidor que permite a los usuarios de Claude Desktop acceder directamente a la API de Claude, permitiéndoles evitar las limitaciones del Plan Profesional y utilizar funciones avanzadas como indicaciones del sistema personalizadas y la gestión de conversaciones.

Local
Python
Airbyte Status Checker

Airbyte Status Checker

Un servidor MCP para Claude Desktop que permite a los usuarios verificar el estado de sus conexiones de Airbyte.

Local
Python
MacOS Clipboard MCP Server

MacOS Clipboard MCP Server

Proporciona a los asistentes de IA acceso al contenido del portapapeles de macOS, admitiendo texto, imágenes y datos binarios a través de OSAScript.

Local
TypeScript
PDF to PNG MCP Server

PDF to PNG MCP Server

A Model Context Protocol server that converts PDF documents into PNG images through a simple MCP tool call.

Local
Python
MCP Server Memory File

MCP Server Memory File

Un servidor MCP que permite a Claude y otros LLMs gestionar memorias persistentes a través de las conversaciones mediante el almacenamiento de archivos de texto, habilitando comandos para agregar, buscar, eliminar y listar entradas de memoria.

Local
TypeScript
Uber Eats MCP Server

Uber Eats MCP Server

Un servidor de prueba de concepto que implementa el Protocolo de Contexto del Modelo, el cual permite que las aplicaciones LLM interactúen con la funcionalidad de Uber Eats.

Local
Python