Discover Awesome MCP Servers
Extend your agent with 13,514 capabilities via MCP servers.
- All13,514
- Developer Tools3,867
- Search1,714
- Research & Data1,557
- AI Integration Systems229
- Cloud Platforms219
- Data & App Analysis181
- Database Interaction177
- Remote Shell Execution165
- Browser Automation147
- Databases145
- Communication137
- AI Content Generation127
- OS Automation120
- Programming Docs Access109
- Content Fetching108
- Note Taking97
- File Systems96
- Version Control93
- Finance91
- Knowledge & Memory90
- Monitoring79
- Security71
- Image & Video Processing69
- Digital Note Management66
- AI Memory Systems62
- Advanced AI Reasoning59
- Git Management Tools58
- Cloud Storage51
- Entertainment & Media43
- Virtualization42
- Location Services35
- Web Automation & Stealth32
- Media Content Processing32
- Calendar Management26
- Ecommerce & Retail18
- Speech Processing18
- Customer Data Platforms16
- Travel & Transportation14
- Education & Learning Tools13
- Home Automation & IoT13
- Web Search Integration12
- Health & Wellness10
- Customer Support10
- Marketing9
- Games & Gamification8
- Google Cloud Integrations7
- Art & Culture4
- Language Translation3
- Legal & Compliance2

Html2url

Remote MCP Server
A cloud-based custom MCP server using Azure Functions that enables saving and retrieving code snippets with secure communication through keys, HTTPS, OAuth, and network isolation options.

V2.ai Insights Scraper MCP
A Model Context Protocol server that scrapes blog posts from V2.ai Insights, extracts content, and provides AI-powered summaries using OpenAI's GPT-4.
MCP with Langchain Sample Setup
## 샘플 MCP 서버 & 클라이언트 설정 (LangChain 호환) 다음은 LangChain과 호환되는 샘플 MCP (Message Passing Communication) 서버 및 클라이언트 설정입니다. 이 예제는 간단한 텍스트 기반 통신을 보여주며, 필요에 따라 더 복잡한 데이터 구조와 프로토콜을 지원하도록 확장할 수 있습니다. **주의:** 이 코드는 예시이며, 실제 프로덕션 환경에서는 보안, 오류 처리, 확장성 등을 고려하여 더 robust하게 구현해야 합니다. **1. MCP 서버 (Python):** ```python import socket import threading HOST = 'localhost' # 서버 IP 주소 PORT = 12345 # 서버 포트 번호 def handle_client(conn, addr): """클라이언트 연결을 처리하는 함수""" print(f"연결됨: {addr}") try: while True: data = conn.recv(1024) # 최대 1024 바이트 수신 if not data: break message = data.decode('utf-8') print(f"수신: {message}") # LangChain과 통합하는 부분 (예시) # 여기에서 LangChain 모델을 사용하여 메시지를 처리하고 응답을 생성할 수 있습니다. response = f"서버 응답: {message.upper()}" # 간단한 예시: 메시지를 대문자로 변환 conn.sendall(response.encode('utf-8')) except Exception as e: print(f"오류 발생: {e}") finally: print(f"연결 종료: {addr}") conn.close() def start_server(): """MCP 서버를 시작하는 함수""" server_socket = socket.socket(socket.AF_INET, socket.SOCK_STREAM) server_socket.bind((HOST, PORT)) server_socket.listen() print(f"서버 시작: {HOST}:{PORT}") while True: conn, addr = server_socket.accept() thread = threading.Thread(target=handle_client, args=(conn, addr)) thread.start() if __name__ == "__main__": start_server() ``` **설명:** * **`handle_client(conn, addr)`:** 클라이언트 연결을 처리하는 함수입니다. 클라이언트로부터 데이터를 수신하고, LangChain 모델을 사용하여 처리한 후 응답을 다시 클라이언트로 보냅니다. * **`start_server()`:** 서버 소켓을 생성하고 클라이언트 연결을 수락하는 함수입니다. 각 클라이언트 연결은 별도의 스레드에서 처리됩니다. * **LangChain 통합:** `handle_client` 함수 내에서 LangChain 모델을 사용하여 수신된 메시지를 처리하고 응답을 생성하는 부분을 구현해야 합니다. 예시에서는 간단하게 메시지를 대문자로 변환하여 응답합니다. **2. MCP 클라이언트 (Python):** ```python import socket HOST = 'localhost' # 서버 IP 주소 PORT = 12345 # 서버 포트 번호 def send_message(message): """서버에 메시지를 보내고 응답을 받는 함수""" with socket.socket(socket.AF_INET, socket.SOCK_STREAM) as client_socket: client_socket.connect((HOST, PORT)) client_socket.sendall(message.encode('utf-8')) data = client_socket.recv(1024) return data.decode('utf-8') if __name__ == "__main__": message = "안녕하세요, 서버!" response = send_message(message) print(f"서버 응답: {response}") ``` **설명:** * **`send_message(message)`:** 서버에 메시지를 보내고 응답을 받는 함수입니다. * 클라이언트 소켓을 생성하고 서버에 연결합니다. * 메시지를 서버에 보내고 서버로부터 응답을 받습니다. * 받은 응답을 반환합니다. **LangChain과의 통합:** LangChain을 이 설정과 통합하려면 다음 단계를 따르세요. 1. **LangChain 설치:** `pip install langchain` 2. **LangChain 모델 로드:** 서버 코드에서 LangChain 모델 (예: LLMChain)을 로드합니다. 3. **메시지 처리:** `handle_client` 함수 내에서 수신된 메시지를 LangChain 모델에 입력하고 응답을 생성합니다. 4. **응답 전송:** 생성된 응답을 클라이언트로 보냅니다. **예시 (LangChain 통합):** ```python # 서버 코드 (handle_client 함수 내) from langchain.llms import OpenAI from langchain.chains import LLMChain from langchain.prompts import PromptTemplate # OpenAI API 키 설정 (환경 변수 또는 직접 설정) import os os.environ["OPENAI_API_KEY"] = "YOUR_OPENAI_API_KEY" # LangChain 모델 로드 llm = OpenAI(temperature=0.9) prompt = PromptTemplate( input_variables=["message"], template="Translate the following message to Korean: {message}" ) chain = LLMChain(llm=llm, prompt=prompt) # 메시지 처리 response = chain.run(message) conn.sendall(response.encode('utf-8')) ``` **참고:** * 위 코드는 OpenAI API를 사용하며, API 키를 설정해야 합니다. * LangChain 모델의 종류와 프롬프트는 필요에 따라 변경할 수 있습니다. * 에러 처리 및 로깅을 추가하여 코드의 안정성을 높이는 것이 좋습니다. 이 샘플 코드는 LangChain과 호환되는 기본적인 MCP 서버 및 클라이언트 설정을 제공합니다. 이 코드를 기반으로 필요에 따라 기능을 확장하고 LangChain 모델을 통합하여 다양한 애플리케이션을 구축할 수 있습니다.

Sequential Questioning MCP Server
A specialized server that enables LLMs to gather specific information through sequential questioning, implementing the MCP standard for seamless integration with LLM clients.
Ticket Tailor API Integration

Elasticsearch MCP Server by CData
Elasticsearch MCP Server by CData

Image Converter MCP Server
Enables conversion between multiple image formats including JPG, PNG, WebP, GIF, BMP, TIFF, SVG, ICO, and AVIF with quality control and batch processing capabilities.
x64dbg MCP server
x64dbg 디버거를 위한 MCP 서버

Netlify MCP Server
Enables code agents to interact with Netlify services through the Model Context Protocol, allowing them to create, build, deploy, and manage Netlify resources using natural language prompts.

BrowserMCP
Remote browser instances for your AI agents. Reliably complete any browser-based task at scale. Fully-control agentic browsers that spin up in seconds.
MCP Server for Veryfi Document Processing
Veryfi API에 액세스할 수 있는 모델 컨텍스트 프로토콜 서버

SP Database MCP Server
A Model Context Protocol server that provides real-time database schema information to AI assistants, supporting both low-code system schema queries and traditional database metadata queries.

mcp-agent-forge
mcp-agent-forge
MCP Finder Server
Remote MCP Server on Cloudflare
Omni Server
모델 컨텍스트 프로토콜(Model Context Protocol)에 익숙해지기 위한 MCP 서버

Weather MCP Server
A Model Context Protocol server that provides current weather forecasts for specific locations and active weather alerts for US states.
Domain Check MCP Server
IONOS 엔드포인트를 사용하여 도메인 가용성을 확인하는 모델 컨텍스트 프로토콜 (MCP) 서버

mcp-google-sheets
구글 시트
sightline-mcp-server
Mcp Servers
MCP 서버
Computer Control MCP
PyAutoGUI, RapidOCR, ONNXRuntime을 사용하여 마우스, 키보드, OCR 등 컴퓨터 제어 기능을 제공하는 MCP 서버. Anthropic의 'computer-use'와 유사하며, 외부 의존성은 없습니다.
Filesystem MCP Server (@shtse8/filesystem-mcp)
Node.js 모델 컨텍스트 프로토콜 (MCP) 서버는 Cline/Claude와 같은 AI 에이전트를 위해 안전하고 상대적인 파일 시스템 접근을 제공합니다.
Aseprite MCP Tools
MCP server for interacting with the Aseprite API
simple_mcp_server4

Overleaf MCP Server
Provides access to Overleaf projects via Git integration, allowing Claude and other MCP clients to read LaTeX files, analyze document structure, and extract content.

MCP Goose Subagents Server
An MCP server that enables AI clients to delegate tasks to autonomous developer teams using Goose CLI subagents, supporting parallel or sequential execution of specialized agents for different development roles.

GPT Image MCP Server
An MCP server that enables text-to-image generation and editing using OpenAI's gpt-image-1 model, supporting multiple output formats, quality settings, and background options.
Remote MCP Server on Cloudflare