Discover Awesome MCP Servers
Extend your agent with 12,851 capabilities via MCP servers.
- All12,851
- Developer Tools3,867
- Search1,714
- Research & Data1,557
- AI Integration Systems229
- Cloud Platforms219
- Data & App Analysis181
- Database Interaction177
- Remote Shell Execution165
- Browser Automation147
- Databases145
- Communication137
- AI Content Generation127
- OS Automation120
- Programming Docs Access109
- Content Fetching108
- Note Taking97
- File Systems96
- Version Control93
- Finance91
- Knowledge & Memory90
- Monitoring79
- Security71
- Image & Video Processing69
- Digital Note Management66
- AI Memory Systems62
- Advanced AI Reasoning59
- Git Management Tools58
- Cloud Storage51
- Entertainment & Media43
- Virtualization42
- Location Services35
- Web Automation & Stealth32
- Media Content Processing32
- Calendar Management26
- Ecommerce & Retail18
- Speech Processing18
- Customer Data Platforms16
- Travel & Transportation14
- Education & Learning Tools13
- Home Automation & IoT13
- Web Search Integration12
- Health & Wellness10
- Customer Support10
- Marketing9
- Games & Gamification8
- Google Cloud Integrations7
- Art & Culture4
- Language Translation3
- Legal & Compliance2

Weather-server MCP Server
A TypeScript-based MCP server that provides weather information through resources and tools, allowing users to access current weather data and forecast predictions for different cities.
yunxin-mcp-server
윤신-mcp-서버
Hello MCP Server
MCP Server Implementation Guide
## Cursor 통합을 위한 자체 MCP (모델 제어 프로토콜) 서버 구축 가이드 및 구현 이 문서는 Cursor 통합을 위한 자체 MCP (모델 제어 프로토콜) 서버를 구축하는 방법에 대한 가이드와 구현 방법을 제공합니다. **1. MCP란 무엇인가?** MCP (Model Control Protocol)는 Cursor와 같은 코드 편집기가 외부 언어 모델 (LLM)과 통신하는 데 사용되는 프로토콜입니다. 이를 통해 편집기는 코드 완성, 코드 생성, 코드 설명 등 다양한 기능을 위해 LLM의 기능을 활용할 수 있습니다. **2. 왜 자체 MCP 서버를 구축해야 하는가?** * **개인 정보 보호:** 외부 API에 의존하지 않고 로컬에서 LLM을 실행하여 데이터를 제어할 수 있습니다. * **커스터마이징:** 특정 요구 사항에 맞게 LLM을 조정하고 MCP 서버의 동작을 사용자 정의할 수 있습니다. * **비용 절감:** 외부 API 사용에 따른 비용을 절감할 수 있습니다. * **오프라인 사용:** 인터넷 연결 없이도 LLM 기능을 사용할 수 있습니다. **3. 아키텍처 개요** 자체 MCP 서버는 일반적으로 다음과 같은 구성 요소로 구성됩니다. * **MCP 서버:** Cursor와 통신하고 LLM에 요청을 전달하는 역할을 합니다. * **LLM (언어 모델):** 코드 완성, 코드 생성 등 실제 작업을 수행합니다. * **API (선택 사항):** LLM에 접근하기 위한 API (예: OpenAI API, Hugging Face Transformers API). 로컬에서 실행하는 경우 필요하지 않을 수 있습니다. **4. 구현 단계** **4.1. 환경 설정** * **프로그래밍 언어 선택:** Python, Node.js, Go 등 익숙한 언어를 선택합니다. 이 가이드에서는 Python을 사용합니다. * **필요한 라이브러리 설치:** * `Flask` 또는 `FastAPI`: 웹 서버 구축 * `requests`: 외부 API와 통신 (필요한 경우) * `transformers`: Hugging Face Transformers 라이브러리 (로컬 LLM 사용 시) * `torch` 또는 `tensorflow`: LLM 실행을 위한 프레임워크 (로컬 LLM 사용 시) ```bash pip install Flask requests transformers torch ``` **4.2. MCP 서버 구축** 다음은 Flask를 사용하여 간단한 MCP 서버를 구축하는 예제입니다. ```python from flask import Flask, request, jsonify import requests import json app = Flask(__name__) # LLM API 엔드포인트 (예: OpenAI API) LLM_API_ENDPOINT = "https://api.openai.com/v1/completions" API_KEY = "YOUR_OPENAI_API_KEY" # 실제 API 키로 대체 @app.route('/completion', methods=['POST']) def completion(): data = request.get_json() prompt = data.get('prompt') if not prompt: return jsonify({'error': 'Prompt is required'}), 400 # LLM API에 요청 전송 headers = { "Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json" } payload = { "model": "text-davinci-003", # 모델 선택 "prompt": prompt, "max_tokens": 150, "n": 1, "stop": None, "temperature": 0.7, } try: response = requests.post(LLM_API_ENDPOINT, headers=headers, data=json.dumps(payload)) response.raise_for_status() # HTTP 에러 처리 result = response.json() completion_text = result['choices'][0]['text'].strip() return jsonify({'completion': completion_text}) except requests.exceptions.RequestException as e: return jsonify({'error': f'LLM API error: {e}'}), 500 if __name__ == '__main__': app.run(debug=True, port=5000) ``` **설명:** * `/completion` 엔드포인트는 Cursor에서 전송된 `prompt`를 받습니다. * `prompt`를 사용하여 LLM API에 요청을 전송합니다. * LLM API로부터 받은 응답을 파싱하여 `completion`을 Cursor에 반환합니다. * 에러 처리를 포함하여 안정적인 서버를 구축합니다. **4.3. 로컬 LLM 사용 (선택 사항)** 외부 API 대신 로컬에서 LLM을 실행하려면 Hugging Face Transformers 라이브러리를 사용할 수 있습니다. ```python from flask import Flask, request, jsonify from transformers import pipeline app = Flask(__name__) # 로컬 LLM 모델 로드 generator = pipeline('text-generation', model='gpt2') # 모델 선택 @app.route('/completion', methods=['POST']) def completion(): data = request.get_json() prompt = data.get('prompt') if not prompt: return jsonify({'error': 'Prompt is required'}), 400 # LLM을 사용하여 텍스트 생성 try: generated_text = generator(prompt, max_length=150, num_return_sequences=1)[0]['generated_text'] completion_text = generated_text[len(prompt):].strip() # 프롬프트 제거 return jsonify({'completion': completion_text}) except Exception as e: return jsonify({'error': f'LLM error: {e}'}), 500 if __name__ == '__main__': app.run(debug=True, port=5000) ``` **설명:** * `transformers.pipeline`을 사용하여 로컬 LLM 모델을 로드합니다. * `generator`를 사용하여 `prompt`를 기반으로 텍스트를 생성합니다. * 생성된 텍스트에서 프롬프트를 제거하고 `completion`을 Cursor에 반환합니다. **4.4. Cursor 설정** * Cursor 설정에서 "Custom Model"을 선택합니다. * MCP 서버의 URL (예: `http://localhost:5000/completion`)을 입력합니다. * 필요한 경우 API 키 또는 기타 인증 정보를 설정합니다. **5. 추가 고려 사항** * **보안:** API 키를 안전하게 관리하고, 요청을 검증하여 보안 취약점을 방지합니다. * **성능:** LLM 모델을 최적화하고, 캐싱을 사용하여 응답 시간을 단축합니다. * **확장성:** 트래픽 증가에 대비하여 서버를 확장할 수 있도록 설계합니다. * **에러 처리:** 다양한 에러 상황에 대한 적절한 에러 처리를 구현합니다. * **로깅:** 요청 및 응답을 로깅하여 디버깅 및 모니터링을 용이하게 합니다. * **모델 선택:** 코드 생성에 특화된 모델 (예: CodeGen, InCoder)을 사용하는 것을 고려하십시오. * **프롬프트 엔지니어링:** LLM의 성능을 향상시키기 위해 프롬프트를 신중하게 설계합니다. **6. 결론** 이 가이드는 Cursor 통합을 위한 자체 MCP 서버를 구축하는 기본적인 단계를 제공합니다. 자신의 요구 사항에 맞게 서버를 사용자 정의하고, LLM 모델을 선택하고, 프롬프트 엔지니어링을 통해 성능을 향상시킬 수 있습니다. 보안, 성능, 확장성을 고려하여 안정적이고 효율적인 MCP 서버를 구축하십시오. **주의:** 이 코드는 예시이며, 실제 운영 환경에 적용하기 전에 보안 및 성능을 고려하여 수정해야 합니다. API 키를 안전하게 관리하고, 요청을 검증하여 보안 취약점을 방지하십시오.
zellij-mcp-server
MCP 서버를 zellij를 통해 STDIO로 연결

Migadu MCP Server
Enables AI assistants to manage Migadu email hosting services through natural language, including creating mailboxes, setting up aliases, configuring autoresponders, and handling bulk operations efficiently.

Zabbix MCP Server
A middleware service that uses Model Context Protocol to analyze and automate Zabbix events with AI, enabling automated incident response and workflow automation through n8n integration.

Deep Research MCP
A Model Context Protocol compliant server that facilitates comprehensive web research by utilizing Tavily's Search and Crawl APIs to gather and structure data for high-quality markdown document creation.

ExecuteAutomation Database Server
A Model Context Protocol server that enables LLMs like Claude to interact with SQLite and SQL Server databases, allowing for schema inspection and SQL query execution.
Cline Code Nexus
Cline이 MCP 서버 기능을 검증하기 위해 만든 테스트 저장소입니다.

MLB V3 Scores MCP Server
An MCP Server that enables interaction with MLB scores and statistics via the SportsData.io MLB V3 Scores API, allowing users to access baseball data through natural language queries.

Shopify MCP Server
Enables interaction with Shopify store data through GraphQL API, providing tools for managing products, customers, orders, blogs, and articles.

smartthings-mcp
A lightweight server for Samsung SmartThings, offering tools to manage devices and rooms. Features include room mapping, device listing, status checks, and command execution. #IoT, #Python, #HomeAutomation #Smartthings

College Basketball Stats MCP Server
An MCP server for accessing college basketball statistics through the SportsData.io CBB v3 Stats API, enabling AI agents to retrieve and analyze college basketball data through natural language interactions.

tavily-mcp-python
Tavily MCP Server implementation that uses fastmcp and supports both sse and stdio transports. It also supports more up to date functionalities of Tavily.
IOTA MCP Server

IntelliPlan
IntelliPlan
mcp-sse-server-demo
MCP SSE 서버 데모
Planning Center Online API and MCP Server Integration
플래닝 센터 온라인 MCP 서버
AskTheApi Team Builder
OpenAPI API와 통신하기 위한 에이전트 네트워크 빌더. AutoGen 기반.

Netlify MCP Server
Follows the Model Context Protocol to enable code agents to use Netlify API and CLI, allowing them to create, deploy, and manage Netlify resources using natural language prompts.

USolver
A best-effort universal logic and numerical solver interface using MCP that implements the 'LLM sandwich' model to process queries, call dedicated solvers (ortools, cvxpy, z3), and verbalize results.

Quickbooks

MYOB AccountRight
This read-only MCP Server allows you to connect to MYOB AccountRight data from Claude Desktop through CData JDBC Drivers. Free (beta) read/write servers available at https://www.cdata.com/solutions/mcp
Burp Suite MCP Server Extension
Burp용 MCP 서버

Elasticsearch MCP Server
Connects to Elasticsearch databases using the Model Context Protocol, allowing users to query and interact with their Elasticsearch indices through natural language conversations.
GitHub MCP Server

Golang Dev Tools
Golang Dev Tools
Remote MCP Server on Cloudflare

Asana MCP Server
An MCP (Multi-Agent Conversation Protocol) server that enables interacting with the Asana API through natural language commands for task management, project organization, and team collaboration.