Discover Awesome MCP Servers

Extend your agent with 13,601 capabilities via MCP servers.

All13,601
Fujitsu Social Digital Twin MCP Server

Fujitsu Social Digital Twin MCP Server

Enables LLMs to access Fujitsu's Digital Rehearsal API through natural language, allowing users to run and analyze simulations of human and social behavior in digital space.

wallet-inspector-mcp

wallet-inspector-mcp

wallet-inspector-mcp

Remote MCP Server

Remote MCP Server

A Cloudflare Workers-based implementation of the Model Context Protocol (MCP) server that enables AI assistants like Claude to interact with external tools through OAuth login.

Notion MCP Server

Notion MCP Server

A custom server that provides a REST API interface for Notion, allowing easy access to Notion's functionality through Cursor's MCP feature.

GitHub MCP Tools

GitHub MCP Tools

A set of tools allowing AI assistants to interact directly with GitHub, enabling automation of tasks like fetching user profiles, creating repositories, and managing pull requests.

DateTime MCP Server

DateTime MCP Server

A simple MCP server that provides accurate date and time information to Claude models, ensuring they always use the correct current date and time when creating time-sensitive content.

MCP Server Sample

MCP Server Sample

MSSQL MCP Server

MSSQL MCP Server

SaaS database MCP

SaaS database MCP

SaaS database MCP

MCP Spotify

MCP Spotify

자연어 명령을 통해 사용자가 Spotify 관련 작업을 수행할 수 있도록 Spotify API와의 상호 작용을 가능하게 하는 MCP 서버 템플릿.

React Learning MCP Server

React Learning MCP Server

A minimal MCP server that enables searching through pre-scraped React documentation using a hybrid approach combining DuckDB full-text search and transformer-based reranking.

Northbeam MCP Server

Northbeam MCP Server

Obsidian Local REST API MCP Server

Obsidian Local REST API MCP Server

A bridge server that allows LLM tools to interact with an Obsidian vault through a local REST API, enabling file operations, note management, and metadata access through natural language.

MCP Easy Copy

MCP Easy Copy

A Model Context Protocol server that automatically reads the Claude Desktop configuration file and presents all available MCP services in an easy-to-copy format at the top of the tools list.

🏓 MCP Ping-Pong Server with FastAPI

🏓 MCP Ping-Pong Server with FastAPI

🏓 FastAPI를 통해 MCP (모델 컨텍스트 프로토콜) 호출을 시연하는 탁구 서버용 실험적 교육용 앱

interactive-mcp

interactive-mcp

A Node.js/TypeScript MCP server that facilitates interactive communication between LLMs and users, allowing AI assistants to request user input, display notifications, and manage command-line chat sessions.

GrowthBook MCP Server

GrowthBook MCP Server

GrowthBook MCP Server

PostgreSQL Products MCP Server

PostgreSQL Products MCP Server

MCP server for interacting with a PostgreSQL products database.

Wireshark MCP Server

Wireshark MCP Server

클로드(Claude)를 통해 네트워크 패킷 분석을 수행하기 위한 TShark/Wireshark MCP 서버

TypeScript MCP Server

TypeScript MCP Server

간단한 XPayroll API로 MCP SDK 테스트 중

Aintent Framework 🚀

Aintent Framework 🚀

Personal Context Technology MCP Server

Personal Context Technology MCP Server

AI 개인화를 위한 개인적 맥락 기술 MCP 서버

PostgreSQL MCP Server with Authentication

PostgreSQL MCP Server with Authentication

Provides authenticated access to PostgreSQL databases for Claude AI, enabling users to browse database tables, discover schemas, and execute custom SQL queries through natural language interaction.

Build Unblocker MCP

Build Unblocker MCP

A Model-Context-Protocol server for Cursor IDE that monitors and terminates hung Windows build executables (like cl.exe, link.exe, msbuild.exe) when they become idle.

Gitlab MCP Server

Gitlab MCP Server

Docswrite MCP

Docswrite MCP

콘텐츠 워크플로우를 간소화하기 위해 생성된 콘텐츠를 Google Docs에서 WordPress로 옮길 때 서식과 구조를 유지합니다.

Remote MCP Server on Cloudflare

Remote MCP Server on Cloudflare

MCP Server Guide & Examples

MCP Server Guide & Examples

## Python 및 TypeScript에서 모델 컨텍스트 프로토콜 (MCP) 서버 구축을 위한 종합 가이드 및 구현 예제 이 문서는 Python과 TypeScript에서 모델 컨텍스트 프로토콜 (MCP) 서버를 구축하기 위한 종합적인 가이드와 구현 예제를 제공합니다. **1. 모델 컨텍스트 프로토콜 (MCP) 이란?** MCP는 모델과 상호 작용하기 위한 표준화된 프로토콜입니다. 이를 통해 다양한 클라이언트 (예: 웹 애플리케이션, 모바일 앱)가 모델의 세부 구현에 관계없이 모델에 액세스하고 사용할 수 있습니다. MCP는 일반적으로 다음과 같은 기능을 제공합니다. * **모델 검색:** 사용 가능한 모델을 나열하고 설명합니다. * **모델 로드:** 특정 모델을 메모리에 로드합니다. * **모델 추론:** 모델에 데이터를 입력하고 예측을 얻습니다. * **모델 언로드:** 메모리에서 모델을 언로드합니다. * **모델 상태 관리:** 모델의 상태를 확인하고 관리합니다. **2. Python MCP 서버 구축** **2.1. 필요한 라이브러리:** * **Flask:** 웹 애플리케이션 프레임워크 (API 엔드포인트 제공) * **gunicorn:** 프로덕션 환경에서 Flask 애플리케이션을 실행하기 위한 WSGI 서버 * **your_model_library:** 실제 모델을 로드하고 추론을 수행하는 데 사용되는 라이브러리 (예: TensorFlow, PyTorch, scikit-learn) **2.2. 코드 예제:** ```python from flask import Flask, request, jsonify import your_model_library # 실제 모델 라이브러리로 대체 app = Flask(__name__) # 모델 로드 (전역 변수로 관리) model = None @app.route('/models', methods=['GET']) def list_models(): """사용 가능한 모델 목록을 반환합니다.""" # 실제 모델 목록을 반환하도록 구현 models = ["model_a", "model_b"] return jsonify({"models": models}) @app.route('/models/<model_name>/load', methods=['POST']) def load_model(model_name): """지정된 모델을 로드합니다.""" global model try: # 실제 모델 로드 로직 구현 model = your_model_library.load_model(model_name) return jsonify({"status": "success", "message": f"{model_name} 모델이 로드되었습니다."}) except Exception as e: return jsonify({"status": "error", "message": str(e)}), 500 @app.route('/models/<model_name>/predict', methods=['POST']) def predict(model_name): """모델에 데이터를 입력하고 예측을 반환합니다.""" global model if model is None: return jsonify({"status": "error", "message": "모델이 로드되지 않았습니다."}), 400 try: data = request.get_json() # 실제 추론 로직 구현 prediction = model.predict(data) return jsonify({"prediction": prediction}) except Exception as e: return jsonify({"status": "error", "message": str(e)}), 500 @app.route('/models/<model_name>/unload', methods=['POST']) def unload_model(model_name): """모델을 언로드합니다.""" global model if model is None: return jsonify({"status": "error", "message": "모델이 로드되지 않았습니다."}), 400 try: # 실제 모델 언로드 로직 구현 del model model = None return jsonify({"status": "success", "message": f"{model_name} 모델이 언로드되었습니다."}) except Exception as e: return jsonify({"status": "error", "message": str(e)}), 500 if __name__ == '__main__': app.run(debug=True) ``` **2.3. 설명:** * `/models`: 사용 가능한 모델 목록을 반환합니다. * `/models/<model_name>/load`: 지정된 모델을 로드합니다. * `/models/<model_name>/predict`: 모델에 데이터를 입력하고 예측을 반환합니다. * `/models/<model_name>/unload`: 모델을 언로드합니다. * `your_model_library`: 실제 모델을 로드하고 추론을 수행하는 데 사용되는 라이브러리로 대체해야 합니다. * 에러 처리 및 로깅을 추가하여 안정성을 높이는 것이 좋습니다. **3. TypeScript MCP 서버 구축** **3.1. 필요한 라이브러리:** * **Node.js:** JavaScript 런타임 환경 * **Express:** 웹 애플리케이션 프레임워크 (API 엔드포인트 제공) * **body-parser:** 요청 본문을 파싱하기 위한 미들웨어 * **your_model_library:** 실제 모델을 로드하고 추론을 수행하는 데 사용되는 라이브러리 (예: TensorFlow.js, ONNX Runtime) **3.2. 코드 예제:** ```typescript import express, { Request, Response } from 'express'; import bodyParser from 'body-parser'; import your_model_library from './your_model_library'; // 실제 모델 라이브러리로 대체 const app = express(); const port = 3000; app.use(bodyParser.json()); // 모델 로드 (전역 변수로 관리) let model: any = null; app.get('/models', (req: Request, res: Response) => { /** 사용 가능한 모델 목록을 반환합니다. */ // 실제 모델 목록을 반환하도록 구현 const models = ["model_a", "model_b"]; res.json({ models }); }); app.post('/models/:model_name/load', async (req: Request, res: Response) => { /** 지정된 모델을 로드합니다. */ const modelName = req.params.model_name; try { // 실제 모델 로드 로직 구현 model = await your_model_library.loadModel(modelName); res.json({ status: "success", message: `${modelName} 모델이 로드되었습니다.` }); } catch (error: any) { res.status(500).json({ status: "error", message: error.message }); } }); app.post('/models/:model_name/predict', async (req: Request, res: Response) => { /** 모델에 데이터를 입력하고 예측을 반환합니다. */ if (!model) { return res.status(400).json({ status: "error", message: "모델이 로드되지 않았습니다." }); } try { const data = req.body; // 실제 추론 로직 구현 const prediction = await model.predict(data); res.json({ prediction }); } catch (error: any) { res.status(500).json({ status: "error", message: error.message }); } }); app.post('/models/:model_name/unload', async (req: Request, res: Response) => { /** 모델을 언로드합니다. */ const modelName = req.params.model_name; if (!model) { return res.status(400).json({ status: "error", message: "모델이 로드되지 않았습니다." }); } try { // 실제 모델 언로드 로직 구현 model = null; res.json({ status: "success", message: `${modelName} 모델이 언로드되었습니다.` }); } catch (error: any) { res.status(500).json({ status: "error", message: error.message }); } }); app.listen(port, () => { console.log(`MCP 서버가 포트 ${port}에서 실행 중입니다.`); }); ``` **3.3. 설명:** * `/models`: 사용 가능한 모델 목록을 반환합니다. * `/models/:model_name/load`: 지정된 모델을 로드합니다. * `/models/:model_name/predict`: 모델에 데이터를 입력하고 예측을 반환합니다. * `/models/:model_name/unload`: 모델을 언로드합니다. * `your_model_library`: 실제 모델을 로드하고 추론을 수행하는 데 사용되는 라이브러리로 대체해야 합니다. * 에러 처리 및 로깅을 추가하여 안정성을 높이는 것이 좋습니다. * TypeScript를 사용하므로 타입 안정성을 확보할 수 있습니다. **4. 추가 고려 사항:** * **보안:** API 엔드포인트를 보호하기 위해 인증 및 권한 부여를 구현합니다. * **확장성:** 로드 밸런싱 및 캐싱을 사용하여 서버의 확장성을 향상시킵니다. * **모니터링:** 서버의 성능을 모니터링하고 문제를 진단하기 위해 로깅 및 메트릭을 구현합니다. * **모델 관리:** 모델 버전 관리 및 배포를 위한 전략을 개발합니다. * **에러 처리:** 모든 API 엔드포인트에서 적절한 에러 처리를 구현합니다. * **API 문서화:** Swagger 또는 OpenAPI와 같은 도구를 사용하여 API를 문서화합니다. **5. 결론:** 이 가이드는 Python과 TypeScript에서 MCP 서버를 구축하기 위한 기본적인 프레임워크를 제공합니다. 실제 구현은 특정 요구 사항과 사용되는 모델 라이브러리에 따라 달라집니다. 이 가이드라인을 기반으로, 실제 모델과 연동하고 필요한 기능을 추가하여 자신만의 MCP 서버를 구축할 수 있습니다. 보안, 확장성, 모니터링과 같은 추가 고려 사항을 염두에 두면 더욱 강력하고 안정적인 MCP 서버를 구축할 수 있습니다.

TickTick MCP Server

TickTick MCP Server

Vercel MCP

Vercel MCP

An MCP server that provides various tools for interacting with the Vercel API, enabling management of deployments, DNS records, domains, projects, and environment variables through natural language commands.