Discover Awesome MCP Servers
Extend your agent with 25,254 capabilities via MCP servers.
- All25,254
- Developer Tools3,867
- Search1,714
- Research & Data1,557
- AI Integration Systems229
- Cloud Platforms219
- Data & App Analysis181
- Database Interaction177
- Remote Shell Execution165
- Browser Automation147
- Databases145
- Communication137
- AI Content Generation127
- OS Automation120
- Programming Docs Access109
- Content Fetching108
- Note Taking97
- File Systems96
- Version Control93
- Finance91
- Knowledge & Memory90
- Monitoring79
- Security71
- Image & Video Processing69
- Digital Note Management66
- AI Memory Systems62
- Advanced AI Reasoning59
- Git Management Tools58
- Cloud Storage51
- Entertainment & Media43
- Virtualization42
- Location Services35
- Web Automation & Stealth32
- Media Content Processing32
- Calendar Management26
- Ecommerce & Retail18
- Speech Processing18
- Customer Data Platforms16
- Travel & Transportation14
- Education & Learning Tools13
- Home Automation & IoT13
- Web Search Integration12
- Health & Wellness10
- Customer Support10
- Marketing9
- Games & Gamification8
- Google Cloud Integrations7
- Art & Culture4
- Language Translation3
- Legal & Compliance2
My Awesome MCP
A basic MCP server built with FastMCP framework that provides example tools including message echoing and server information retrieval. Supports both stdio and HTTP transports with Docker deployment capabilities.
Reqable Capture Reader MCP Server
Enables AI assistants to query, filter, and analyze local HTTP capture records and REST API test data from the Reqable tool. It provides read-only access to inspect request/response details, headers, and statistics through natural language.
yunxin-mcp-server
yunxin-mcp-server
Text-to-Speech MCP Server
Um servidor MCP (Model Context Protocol) simples que oferece recursos de conversão de texto em fala, escrito em TypeScript.
Kintone Book Management MCP Tool
A Model Context Protocol (MCP) server that provides a tool for retrieving and managing book information from a Kintone database application.
MusicMCP.AI
Enables AI-powered music generation through natural language commands, supporting both inspiration mode (AI-generated lyrics and style) and custom mode (user-provided lyrics and parameters) to create songs with direct download links.
Weather-server MCP Server
A TypeScript-based MCP server that provides weather information through resources and tools, allowing users to access current weather data and forecast predictions for different cities.
mcp-sse-server-demo
Demonstração do servidor MCP SSE
IOTA MCP Server
MCP Code Assistant
Provides file operations (read/write) with an extensible architecture designed for future C code compilation and executable execution capabilities.
EduChain MCP Server
Enables the generation of educational content such as multiple choice questions, lesson plans, and flashcards by connecting local Ollama models to Claude. It leverages the Educhain library to provide structured AI-powered learning tools through the Model Context Protocol.
mcp-server-python
Espelho de
Leantime MCP Server
Enables integration with Leantime project management software, allowing users to manage projects, tickets/tasks, time tracking, sprints, and goals through MCP-compatible tools and n8n workflows.
mcp-gsheets
mcp-gsheets
Remote MCP Server
A server that implements the Model Context Protocol (MCP) on Cloudflare Workers, allowing AI models to access custom tools without authentication.
MCP Server
Manages query validation, database connection, and security for a system that transforms SQL databases into interactive dashboards using natural language queries.
Transmission MCP Server
Provides tools for interacting with the Transmission BitTorrent client via natural language, enabling users to manage torrents, configure download settings, and monitor download activity.
Wise MCP Server
Enables access to Wise API functionality for managing recipients and sending money transfers. Supports listing recipients, creating new recipients, validating account details, and executing money transfers with authentication handling.
Plex MCP Account Finder
Connects to multiple Plex accounts to perform fuzzy searches for users across servers by email, username, or display name, and generates authentication tokens for new account access.
macOS Ecosystem MCP Server
Provides secure access to macOS Reminders, Calendar, and Notes using semantic tools and validated AppleScript templates. It enables users to manage schedules, tasks, and notes through natural language while ensuring multi-layer security validation.
predictfun-mcp
MCP (Model Context Protocol) server that gives AI agents structured access to Predict.fun — a prediction market protocol on BNB Chain with $1.5B+ volume and yield-bearing mechanics via Venus Protocol. Indexes data from three subgraphs: orderbook activity, position lifecycle, and yield mechanics.
x.ai Grok MCP Server
Enables chat completions using x.ai's Grok API with support for multiple Grok models (grok-beta, grok-2-latest, grok-4-latest) and configurable parameters like temperature and max tokens.
App Store Connect MCP Server
Enables interaction with Apple's App Store Connect API through natural language to manage apps, beta testing, localizations, analytics, sales reports, and CI/CD workflows for iOS and macOS development.
Medicine Carousel MCP Server
Displays FDA-approved Lilly Direct pharmaceuticals in an interactive carousel interface and provides authenticated user profile access through OAuth 2.1 integration with AWS API Gateway.
MCP Server Implementation Guide
## Guia e Implementação para Criar seu Próprio Servidor MCP (Model Control Protocol) para Integração com o Cursor Este guia detalha como criar seu próprio servidor MCP (Model Control Protocol) para integrar com o Cursor, permitindo que você controle modelos de linguagem personalizados ou serviços externos diretamente do seu editor de código. **O que é o MCP (Model Control Protocol)?** O MCP é um protocolo de comunicação leve e flexível projetado para facilitar a interação entre o Cursor e modelos de linguagem externos. Ele permite que o Cursor envie solicitações (como completar código, gerar documentação ou refatorar código) para um servidor externo, que processa a solicitação e retorna uma resposta. **Por que criar seu próprio servidor MCP?** * **Integração com Modelos Personalizados:** Use seus próprios modelos de linguagem treinados ou serviços de terceiros que não são suportados nativamente pelo Cursor. * **Controle Total:** Tenha controle total sobre o processamento das solicitações e a lógica de resposta. * **Personalização:** Adapte o comportamento do Cursor para atender às suas necessidades específicas de desenvolvimento. * **Experimentação:** Explore novas funcionalidades e integrações com modelos de linguagem. **Passo 1: Escolha uma Linguagem de Programação e Framework** Você pode usar qualquer linguagem de programação para criar seu servidor MCP. Algumas opções populares incluem: * **Python:** Com frameworks como Flask ou FastAPI, é fácil criar um servidor web simples e eficiente. * **Node.js:** Com Express.js, você pode criar um servidor web escalável e de alto desempenho. * **Go:** Oferece excelente desempenho e concorrência, ideal para servidores de alta carga. Para este guia, usaremos **Python com FastAPI** como exemplo, devido à sua simplicidade e facilidade de uso. **Passo 2: Instale as Dependências** Crie um ambiente virtual (recomendado) e instale as dependências necessárias: ```bash python3 -m venv .venv source .venv/bin/activate # No Linux/macOS .venv\Scripts\activate # No Windows pip install fastapi uvicorn ``` **Passo 3: Defina a Estrutura do Servidor MCP** Um servidor MCP básico precisa de um endpoint para receber as solicitações do Cursor. Este endpoint geralmente usa o método `POST` e recebe um payload JSON contendo informações sobre a solicitação. Crie um arquivo chamado `main.py` com o seguinte conteúdo: ```python from fastapi import FastAPI, Request, HTTPException from pydantic import BaseModel from typing import Optional app = FastAPI() class MCPRequest(BaseModel): prompt: str language: str context: Optional[str] = None # Adicione outros campos relevantes para sua implementação class MCPResponse(BaseModel): completion: str # Adicione outros campos relevantes para sua implementação @app.post("/mcp") async def handle_mcp_request(request: MCPRequest): """ Endpoint para receber solicitações do Cursor. """ try: # 1. Extrair informações da solicitação prompt = request.prompt language = request.language context = request.context # 2. Processar a solicitação (substitua com sua lógica) # Aqui você integraria com seu modelo de linguagem # Exemplo: completion = f"// Completion for: {prompt} in {language} with context: {context}" # 3. Criar a resposta response = MCPResponse(completion=completion) return response except Exception as e: raise HTTPException(status_code=500, detail=str(e)) ``` **Explicação do Código:** * **`MCPRequest`:** Define a estrutura dos dados esperados na solicitação do Cursor. `prompt` é o texto a ser completado, `language` é a linguagem de programação e `context` pode conter informações adicionais sobre o código ao redor do cursor. Adapte esta classe para incluir todos os campos que seu modelo precisa. * **`MCPResponse`:** Define a estrutura da resposta que o servidor enviará de volta ao Cursor. `completion` é o texto gerado pelo modelo. Adicione outros campos conforme necessário (por exemplo, sugestões de código, documentação, etc.). * **`/mcp` endpoint:** Este é o endpoint que o Cursor usará para enviar solicitações. Ele recebe um objeto `MCPRequest`, processa a solicitação (neste exemplo, apenas cria uma string de exemplo) e retorna um objeto `MCPResponse`. * **Tratamento de Erros:** O bloco `try...except` garante que erros inesperados sejam capturados e retornados ao Cursor com um código de status HTTP 500. **Passo 4: Implemente a Lógica de Processamento da Solicitação** A parte mais importante é substituir o comentário `# 2. Processar a solicitação` com a lógica real para interagir com seu modelo de linguagem. Isso pode envolver: * **Carregar seu modelo de linguagem:** Se você estiver usando um modelo treinado localmente, carregue-o na memória. * **Pré-processar o prompt:** Prepare o prompt para ser usado pelo seu modelo (por exemplo, tokenização, embedding). * **Chamar seu modelo:** Envie o prompt para seu modelo e obtenha a resposta. * **Pós-processar a resposta:** Formate a resposta do modelo para ser usada pelo Cursor. **Exemplo de Integração com um Modelo de Linguagem (Hipotético):** ```python # ... (código anterior) @app.post("/mcp") async def handle_mcp_request(request: MCPRequest): try: prompt = request.prompt language = request.language context = request.context # Supondo que você tenha um objeto 'model' carregado # e uma função 'generate_completion' que recebe o prompt e retorna a completion completion = model.generate_completion(prompt, language, context) response = MCPResponse(completion=completion) return response except Exception as e: raise HTTPException(status_code=500, detail=str(e)) # ... (código posterior) ``` **Passo 5: Execute o Servidor MCP** Use Uvicorn para executar o servidor: ```bash uvicorn main:app --reload ``` Isso iniciará o servidor na porta 8000 (por padrão). Você verá uma mensagem como: ``` INFO: Uvicorn running on http://127.0.0.1:8000 (Press CTRL+C to quit) ``` **Passo 6: Configure o Cursor para Usar seu Servidor MCP** 1. **Abra as configurações do Cursor:** Vá para `File` -> `Preferences` -> `Settings`. 2. **Procure por "Model Control Protocol":** Digite "mcp" na barra de pesquisa. 3. **Configure as seguintes opções:** * **`Model Control Protocol: Enabled`:** Marque esta caixa para habilitar o MCP. * **`Model Control Protocol: Server URL`:** Insira a URL do seu servidor MCP (por exemplo, `http://127.0.0.1:8000/mcp`). * **`Model Control Protocol: API Key` (Opcional):** Se seu servidor MCP requer autenticação, insira a chave API aqui. Você precisará adicionar a lógica de autenticação ao seu servidor. * **`Model Control Protocol: Timeout` (Opcional):** Defina o tempo limite para as solicitações ao servidor. **Passo 7: Teste a Integração** Abra um arquivo de código no Cursor e comece a digitar. O Cursor deve enviar solicitações para seu servidor MCP e usar as respostas para completar o código. **Considerações Adicionais:** * **Autenticação:** Se você estiver expondo seu servidor MCP para a internet, implemente autenticação para proteger seu modelo de linguagem. Você pode usar chaves API, tokens JWT ou outros métodos de autenticação. * **Escalabilidade:** Se você espera um grande volume de solicitações, considere usar um framework de servidor mais escalável e um banco de dados para armazenar informações sobre os usuários e seus modelos. * **Logging:** Implemente logging para rastrear as solicitações e respostas do servidor, o que pode ser útil para depuração e monitoramento. * **Tratamento de Erros:** Implemente um tratamento de erros robusto para lidar com erros inesperados e retornar mensagens de erro informativas ao Cursor. * **Documentação:** Documente seu servidor MCP para que outros desenvolvedores possam usá-lo e integrá-lo com o Cursor. * **Segurança:** Certifique-se de que seu servidor MCP seja seguro e proteja seus dados contra acesso não autorizado. Use HTTPS para criptografar a comunicação entre o Cursor e o servidor. **Exemplo Completo (com autenticação básica):** ```python from fastapi import FastAPI, Request, HTTPException, Depends from fastapi.security import HTTPBasic, HTTPBasicCredentials from pydantic import BaseModel from typing import Optional from starlette import status app = FastAPI() security = HTTPBasic() class MCPRequest(BaseModel): prompt: str language: str context: Optional[str] = None class MCPResponse(BaseModel): completion: str # Substitua com suas credenciais reais USERS = { "user": "password" } def authenticate_user(credentials: HTTPBasicCredentials = Depends(security)): user = USERS.get(credentials.username) if user is None or user != credentials.password: raise HTTPException( status_code=status.HTTP_401_UNAUTHORIZED, detail="Incorrect username or password", headers={"WWW-Authenticate": "Basic"}, ) return credentials.username @app.post("/mcp") async def handle_mcp_request(request: MCPRequest, username: str = Depends(authenticate_user)): try: prompt = request.prompt language = request.language context = request.context # Aqui você integraria com seu modelo de linguagem completion = f"// Completion for: {prompt} in {language} by {username}" response = MCPResponse(completion=completion) return response except Exception as e: raise HTTPException(status_code=500, detail=str(e)) ``` **Para executar este exemplo com autenticação:** 1. Instale as dependências: `pip install fastapi uvicorn python-multipart` 2. Execute o servidor: `uvicorn main:app --reload` 3. No Cursor, configure o "Model Control Protocol: Server URL" para `http://127.0.0.1:8000/mcp`. 4. No Cursor, configure o "Model Control Protocol: API Key" para `user:password` (substitua com as credenciais definidas em `USERS`). O Cursor usará a autenticação Basic HTTP para enviar as credenciais. Este guia fornece um ponto de partida para criar seu próprio servidor MCP para integração com o Cursor. Adapte o código e as configurações para atender às suas necessidades específicas e explore as possibilidades de integração com modelos de linguagem personalizados. Lembre-se de priorizar a segurança e a escalabilidade ao implementar seu servidor MCP.
UniFi Network MCP Server
Enables AI assistants to manage UniFi network infrastructure through 50+ tools covering devices, clients, networks, WiFi, firewall rules, and guest access using the official UniFi Network API.
Windows CLI MCP Server
A Model Context Protocol server that provides secure command-line access to Windows systems, allowing MCP clients like Claude Desktop to safely execute commands in PowerShell, CMD, and Git Bash shells with configurable security controls.
Codex MCP Telegram
Enables remote execution of Codex CLI commands and provides an MCP tool for AI agents to escalate questions to humans via Telegram, allowing for human-in-the-loop workflows when away from the machine.
MCP OpenAPI Connector
Enables Claude Desktop and other MCP clients to interact with any OAuth2-authenticated OpenAPI-based API through automatic tool generation from OpenAPI specifications, with built-in token management and authentication handling.
TaskFlow MCP
A task management server that helps AI assistants break down user requests into manageable tasks and track their completion with user approval steps.