Discover Awesome MCP Servers

Extend your agent with 12,851 capabilities via MCP servers.

All12,851
Weather-server MCP Server

Weather-server MCP Server

A TypeScript-based MCP server that provides weather information through resources and tools, allowing users to access current weather data and forecast predictions for different cities.

yunxin-mcp-server

yunxin-mcp-server

윤신-mcp-서버

Hello MCP Server

Hello MCP Server

MCP Server Implementation Guide

MCP Server Implementation Guide

## Cursor 통합을 위한 자체 MCP (모델 제어 프로토콜) 서버 구축 가이드 및 구현 이 문서는 Cursor 통합을 위한 자체 MCP (모델 제어 프로토콜) 서버를 구축하는 방법에 대한 가이드와 구현 방법을 제공합니다. **1. MCP란 무엇인가?** MCP (Model Control Protocol)는 Cursor와 같은 코드 편집기가 외부 언어 모델 (LLM)과 통신하는 데 사용되는 프로토콜입니다. 이를 통해 편집기는 코드 완성, 코드 생성, 코드 설명 등 다양한 기능을 위해 LLM의 기능을 활용할 수 있습니다. **2. 왜 자체 MCP 서버를 구축해야 하는가?** * **개인 정보 보호:** 외부 API에 의존하지 않고 로컬에서 LLM을 실행하여 데이터를 제어할 수 있습니다. * **커스터마이징:** 특정 요구 사항에 맞게 LLM을 조정하고 MCP 서버의 동작을 사용자 정의할 수 있습니다. * **비용 절감:** 외부 API 사용에 따른 비용을 절감할 수 있습니다. * **오프라인 사용:** 인터넷 연결 없이도 LLM 기능을 사용할 수 있습니다. **3. 아키텍처 개요** 자체 MCP 서버는 일반적으로 다음과 같은 구성 요소로 구성됩니다. * **MCP 서버:** Cursor와 통신하고 LLM에 요청을 전달하는 역할을 합니다. * **LLM (언어 모델):** 코드 완성, 코드 생성 등 실제 작업을 수행합니다. * **API (선택 사항):** LLM에 접근하기 위한 API (예: OpenAI API, Hugging Face Transformers API). 로컬에서 실행하는 경우 필요하지 않을 수 있습니다. **4. 구현 단계** **4.1. 환경 설정** * **프로그래밍 언어 선택:** Python, Node.js, Go 등 익숙한 언어를 선택합니다. 이 가이드에서는 Python을 사용합니다. * **필요한 라이브러리 설치:** * `Flask` 또는 `FastAPI`: 웹 서버 구축 * `requests`: 외부 API와 통신 (필요한 경우) * `transformers`: Hugging Face Transformers 라이브러리 (로컬 LLM 사용 시) * `torch` 또는 `tensorflow`: LLM 실행을 위한 프레임워크 (로컬 LLM 사용 시) ```bash pip install Flask requests transformers torch ``` **4.2. MCP 서버 구축** 다음은 Flask를 사용하여 간단한 MCP 서버를 구축하는 예제입니다. ```python from flask import Flask, request, jsonify import requests import json app = Flask(__name__) # LLM API 엔드포인트 (예: OpenAI API) LLM_API_ENDPOINT = "https://api.openai.com/v1/completions" API_KEY = "YOUR_OPENAI_API_KEY" # 실제 API 키로 대체 @app.route('/completion', methods=['POST']) def completion(): data = request.get_json() prompt = data.get('prompt') if not prompt: return jsonify({'error': 'Prompt is required'}), 400 # LLM API에 요청 전송 headers = { "Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json" } payload = { "model": "text-davinci-003", # 모델 선택 "prompt": prompt, "max_tokens": 150, "n": 1, "stop": None, "temperature": 0.7, } try: response = requests.post(LLM_API_ENDPOINT, headers=headers, data=json.dumps(payload)) response.raise_for_status() # HTTP 에러 처리 result = response.json() completion_text = result['choices'][0]['text'].strip() return jsonify({'completion': completion_text}) except requests.exceptions.RequestException as e: return jsonify({'error': f'LLM API error: {e}'}), 500 if __name__ == '__main__': app.run(debug=True, port=5000) ``` **설명:** * `/completion` 엔드포인트는 Cursor에서 전송된 `prompt`를 받습니다. * `prompt`를 사용하여 LLM API에 요청을 전송합니다. * LLM API로부터 받은 응답을 파싱하여 `completion`을 Cursor에 반환합니다. * 에러 처리를 포함하여 안정적인 서버를 구축합니다. **4.3. 로컬 LLM 사용 (선택 사항)** 외부 API 대신 로컬에서 LLM을 실행하려면 Hugging Face Transformers 라이브러리를 사용할 수 있습니다. ```python from flask import Flask, request, jsonify from transformers import pipeline app = Flask(__name__) # 로컬 LLM 모델 로드 generator = pipeline('text-generation', model='gpt2') # 모델 선택 @app.route('/completion', methods=['POST']) def completion(): data = request.get_json() prompt = data.get('prompt') if not prompt: return jsonify({'error': 'Prompt is required'}), 400 # LLM을 사용하여 텍스트 생성 try: generated_text = generator(prompt, max_length=150, num_return_sequences=1)[0]['generated_text'] completion_text = generated_text[len(prompt):].strip() # 프롬프트 제거 return jsonify({'completion': completion_text}) except Exception as e: return jsonify({'error': f'LLM error: {e}'}), 500 if __name__ == '__main__': app.run(debug=True, port=5000) ``` **설명:** * `transformers.pipeline`을 사용하여 로컬 LLM 모델을 로드합니다. * `generator`를 사용하여 `prompt`를 기반으로 텍스트를 생성합니다. * 생성된 텍스트에서 프롬프트를 제거하고 `completion`을 Cursor에 반환합니다. **4.4. Cursor 설정** * Cursor 설정에서 "Custom Model"을 선택합니다. * MCP 서버의 URL (예: `http://localhost:5000/completion`)을 입력합니다. * 필요한 경우 API 키 또는 기타 인증 정보를 설정합니다. **5. 추가 고려 사항** * **보안:** API 키를 안전하게 관리하고, 요청을 검증하여 보안 취약점을 방지합니다. * **성능:** LLM 모델을 최적화하고, 캐싱을 사용하여 응답 시간을 단축합니다. * **확장성:** 트래픽 증가에 대비하여 서버를 확장할 수 있도록 설계합니다. * **에러 처리:** 다양한 에러 상황에 대한 적절한 에러 처리를 구현합니다. * **로깅:** 요청 및 응답을 로깅하여 디버깅 및 모니터링을 용이하게 합니다. * **모델 선택:** 코드 생성에 특화된 모델 (예: CodeGen, InCoder)을 사용하는 것을 고려하십시오. * **프롬프트 엔지니어링:** LLM의 성능을 향상시키기 위해 프롬프트를 신중하게 설계합니다. **6. 결론** 이 가이드는 Cursor 통합을 위한 자체 MCP 서버를 구축하는 기본적인 단계를 제공합니다. 자신의 요구 사항에 맞게 서버를 사용자 정의하고, LLM 모델을 선택하고, 프롬프트 엔지니어링을 통해 성능을 향상시킬 수 있습니다. 보안, 성능, 확장성을 고려하여 안정적이고 효율적인 MCP 서버를 구축하십시오. **주의:** 이 코드는 예시이며, 실제 운영 환경에 적용하기 전에 보안 및 성능을 고려하여 수정해야 합니다. API 키를 안전하게 관리하고, 요청을 검증하여 보안 취약점을 방지하십시오.

zellij-mcp-server

zellij-mcp-server

MCP 서버를 zellij를 통해 STDIO로 연결

Migadu MCP Server

Migadu MCP Server

Enables AI assistants to manage Migadu email hosting services through natural language, including creating mailboxes, setting up aliases, configuring autoresponders, and handling bulk operations efficiently.

Zabbix MCP Server

Zabbix MCP Server

A middleware service that uses Model Context Protocol to analyze and automate Zabbix events with AI, enabling automated incident response and workflow automation through n8n integration.

Deep Research MCP

Deep Research MCP

A Model Context Protocol compliant server that facilitates comprehensive web research by utilizing Tavily's Search and Crawl APIs to gather and structure data for high-quality markdown document creation.

ExecuteAutomation Database Server

ExecuteAutomation Database Server

A Model Context Protocol server that enables LLMs like Claude to interact with SQLite and SQL Server databases, allowing for schema inspection and SQL query execution.

Cline Code Nexus

Cline Code Nexus

Cline이 MCP 서버 기능을 검증하기 위해 만든 테스트 저장소입니다.

MLB V3 Scores MCP Server

MLB V3 Scores MCP Server

An MCP Server that enables interaction with MLB scores and statistics via the SportsData.io MLB V3 Scores API, allowing users to access baseball data through natural language queries.

Shopify MCP Server

Shopify MCP Server

Enables interaction with Shopify store data through GraphQL API, providing tools for managing products, customers, orders, blogs, and articles.

smartthings-mcp

smartthings-mcp

A lightweight server for Samsung SmartThings, offering tools to manage devices and rooms. Features include room mapping, device listing, status checks, and command execution. #IoT, #Python, #HomeAutomation #Smartthings

College Basketball Stats MCP Server

College Basketball Stats MCP Server

An MCP server for accessing college basketball statistics through the SportsData.io CBB v3 Stats API, enabling AI agents to retrieve and analyze college basketball data through natural language interactions.

tavily-mcp-python

tavily-mcp-python

Tavily MCP Server implementation that uses fastmcp and supports both sse and stdio transports. It also supports more up to date functionalities of Tavily.

IOTA MCP Server

IOTA MCP Server

IntelliPlan

IntelliPlan

IntelliPlan

mcp-sse-server-demo

mcp-sse-server-demo

MCP SSE 서버 데모

Planning Center Online API and MCP Server Integration

Planning Center Online API and MCP Server Integration

플래닝 센터 온라인 MCP 서버

AskTheApi Team Builder

AskTheApi Team Builder

OpenAPI API와 통신하기 위한 에이전트 네트워크 빌더. AutoGen 기반.

Netlify MCP Server

Netlify MCP Server

Follows the Model Context Protocol to enable code agents to use Netlify API and CLI, allowing them to create, deploy, and manage Netlify resources using natural language prompts.

USolver

USolver

A best-effort universal logic and numerical solver interface using MCP that implements the 'LLM sandwich' model to process queries, call dedicated solvers (ortools, cvxpy, z3), and verbalize results.

Quickbooks

Quickbooks

MYOB AccountRight

MYOB AccountRight

This read-only MCP Server allows you to connect to MYOB AccountRight data from Claude Desktop through CData JDBC Drivers. Free (beta) read/write servers available at https://www.cdata.com/solutions/mcp

Burp Suite MCP Server Extension

Burp Suite MCP Server Extension

Burp용 MCP 서버

Elasticsearch MCP Server

Elasticsearch MCP Server

Connects to Elasticsearch databases using the Model Context Protocol, allowing users to query and interact with their Elasticsearch indices through natural language conversations.

GitHub MCP Server

GitHub MCP Server

Golang Dev Tools

Golang Dev Tools

Golang Dev Tools

Remote MCP Server on Cloudflare

Remote MCP Server on Cloudflare

Asana MCP Server

Asana MCP Server

An MCP (Multi-Agent Conversation Protocol) server that enables interacting with the Asana API through natural language commands for task management, project organization, and team collaboration.