Discover Awesome MCP Servers
Extend your agent with 29,247 capabilities via MCP servers.
- All29,247
- Developer Tools3,867
- Search1,714
- Research & Data1,557
- AI Integration Systems229
- Cloud Platforms219
- Data & App Analysis181
- Database Interaction177
- Remote Shell Execution165
- Browser Automation147
- Databases145
- Communication137
- AI Content Generation127
- OS Automation120
- Programming Docs Access109
- Content Fetching108
- Note Taking97
- File Systems96
- Version Control93
- Finance91
- Knowledge & Memory90
- Monitoring79
- Security71
- Image & Video Processing69
- Digital Note Management66
- AI Memory Systems62
- Advanced AI Reasoning59
- Git Management Tools58
- Cloud Storage51
- Entertainment & Media43
- Virtualization42
- Location Services35
- Web Automation & Stealth32
- Media Content Processing32
- Calendar Management26
- Ecommerce & Retail18
- Speech Processing18
- Customer Data Platforms16
- Travel & Transportation14
- Education & Learning Tools13
- Home Automation & IoT13
- Web Search Integration12
- Health & Wellness10
- Customer Support10
- Marketing9
- Games & Gamification8
- Google Cloud Integrations7
- Art & Culture4
- Language Translation3
- Legal & Compliance2
Ceph MCP Server
A Model Context Protocol server that enables AI assistants to interact with Ceph storage clusters through natural language, making storage management more accessible and intuitive.
Unpaywall MCP Server
Enables AI clients to search for academic papers, fetch metadata by DOI, retrieve open access PDF links, and extract full text from research papers using the Unpaywall API. Provides seamless access to scholarly literature for research and analysis tasks.
Pure Agentic MCP Server
A Model Context Protocol implementation with a modular architecture that exposes capabilities through specialized agents, enabling seamless integration with Claude Desktop and web applications.
memex
Zettelkasten-based persistent memory for AI coding agents. Auto-saves atomic knowledge cards with \[\[bidirectional links]] after tasks and auto-recalls before new ones. No vector DB — plain markdown files with git sync. Works as Claude Code plugin or MCP server for Cursor, VS Code Copilot, Codex, and Windsurf.
MCP Data Analyzer
Enables loading and statistical analysis of .xlsx and .csv files with visualization capabilities using matplotlib and plotly to generate various graphs and charts.
Data Labeling MCP Server
An MCP Server that enables interaction with Google's Data Labeling API, allowing users to manage datasets, annotations, and labeling tasks through natural language commands.
Plex Assistant MCP
Enables users to manage and control their Plex media library through natural language commands in MCP-compatible AI clients. It supports searching content, managing playlists, tracking library statistics, and monitoring live viewing sessions.
YAPI MCP Server
SRC (Structured Repo Context)
An MCP server and CLI tool that transforms codebases into AI-ready context through semantic search, call graph analysis, and incremental indexing. It enables AI assistants to perform hybrid vector and keyword searches to understand complex repository structures and cross-file relationships.
Base64 Streaming MCP Server
Provides real-time screen capture streaming in base64 format via WebSocket connections, enabling Claude to view and analyze user screens through natural language requests.
mcp-nckuhub-server
Salesforce MCP
Salesforce MCP
MCP ChatGPT Multi-Server Suite
A comprehensive suite of four MCP servers providing real-time stock market data, currency conversion between 160+ currencies, world timezone conversion, and unit conversion across 10 measurement categories. Features beautiful web interfaces and ChatGPT integration capabilities.
crawl4ai-mcp
파이썬을 사용하여 Crawl4AI 라이브러리를 함수로 래핑하는 MCP (Model Context Protocol) 서버: ```python from flask import Flask, request, jsonify import crawl4ai # Crawl4AI 라이브러리 임포트 (설치 필요: pip install crawl4ai) app = Flask(__name__) # Crawl4AI 함수를 래핑하는 함수 정의 def crawl_website(url, max_depth=1, max_pages=10): """ Crawl4AI 라이브러리를 사용하여 웹사이트를 크롤링합니다. Args: url (str): 크롤링할 웹사이트의 URL. max_depth (int): 크롤링할 최대 깊이 (기본값: 1). max_pages (int): 크롤링할 최대 페이지 수 (기본값: 10). Returns: dict: 크롤링된 데이터 (예: 페이지 내용, 링크 등). """ try: crawler = crawl4ai.Crawler(url, max_depth=max_depth, max_pages=max_pages) results = crawler.crawl() return results except Exception as e: return {"error": str(e)} # MCP 엔드포인트 정의 @app.route('/crawl', methods=['POST']) def crawl_endpoint(): """ /crawl 엔드포인트는 POST 요청을 받아 웹사이트를 크롤링하고 결과를 반환합니다. 요청 예시: { "url": "https://www.example.com", "max_depth": 2, "max_pages": 20 } 응답 예시: { "results": { "https://www.example.com": { "title": "Example Domain", "content": "This domain is for use in illustrative examples in documents. You may use this domain in literature without prior coordination or asking for permission.", "links": [] } } } """ try: data = request.get_json() url = data.get('url') max_depth = data.get('max_depth', 1) # 기본값 1 max_pages = data.get('max_pages', 10) # 기본값 10 if not url: return jsonify({"error": "URL is required"}), 400 results = crawl_website(url, max_depth, max_pages) if "error" in results: return jsonify({"error": results["error"]}), 500 else: return jsonify({"results": results}) except Exception as e: return jsonify({"error": str(e)}), 500 if __name__ == '__main__': app.run(debug=True, host='0.0.0.0', port=5000) ``` **설명:** 1. **필요한 라이브러리 임포트:** - `flask`: 웹 서버를 만들기 위한 프레임워크입니다. - `crawl4ai`: 웹 크롤링을 위한 라이브러리입니다. `pip install crawl4ai` 명령어로 설치해야 합니다. 2. **Flask 앱 초기화:** - `app = Flask(__name__)` Flask 애플리케이션 인스턴스를 생성합니다. 3. **`crawl_website` 함수 정의:** - 이 함수는 `crawl4ai.Crawler`를 사용하여 웹사이트를 크롤링합니다. - `url`, `max_depth`, `max_pages`를 인자로 받습니다. - 크롤링 결과를 반환하거나, 오류가 발생하면 오류 메시지를 반환합니다. - `try...except` 블록을 사용하여 예외 처리를 합니다. 4. **`/crawl` 엔드포인트 정의:** - `@app.route('/crawl', methods=['POST'])` 데코레이터는 `/crawl` 경로에 대한 POST 요청을 처리하는 함수를 정의합니다. - `request.get_json()`을 사용하여 요청 본문에서 JSON 데이터를 가져옵니다. - `data.get('url')`, `data.get('max_depth', 1)`, `data.get('max_pages', 10)`를 사용하여 URL, 최대 깊이, 최대 페이지 수를 가져옵니다. `get` 메서드를 사용하면 키가 없을 경우 기본값을 지정할 수 있습니다. - URL이 없으면 오류 응답을 반환합니다. - `crawl_website` 함수를 호출하여 웹사이트를 크롤링합니다. - 크롤링 결과 또는 오류 메시지를 JSON 형식으로 반환합니다. - `jsonify` 함수는 Python 딕셔너리를 JSON 응답으로 변환합니다. - HTTP 상태 코드를 설정하여 성공 또는 오류를 나타냅니다. 5. **앱 실행:** - `if __name__ == '__main__':` 블록은 스크립트가 직접 실행될 때만 실행됩니다. - `app.run(debug=True, host='0.0.0.0', port=5000)` Flask 개발 서버를 시작합니다. - `debug=True`: 디버그 모드를 활성화하여 오류 메시지를 더 자세히 표시하고 코드 변경 사항을 자동으로 다시 로드합니다. 프로덕션 환경에서는 `debug=False`로 설정해야 합니다. - `host='0.0.0.0'`: 모든 네트워크 인터페이스에서 서버에 액세스할 수 있도록 합니다. - `port=5000`: 서버가 수신 대기할 포트를 지정합니다. **사용 방법:** 1. **Crawl4AI 라이브러리 설치:** ```bash pip install crawl4ai ``` 2. **스크립트 실행:** ```bash python your_script_name.py ``` 3. **POST 요청 보내기:** - `curl`, `Postman` 또는 다른 HTTP 클라이언트를 사용하여 `/crawl` 엔드포인트에 POST 요청을 보냅니다. - 요청 본문은 JSON 형식이어야 하며, `url` 필드를 포함해야 합니다. `max_depth`와 `max_pages`는 선택 사항입니다. ```bash curl -X POST -H "Content-Type: application/json" -d '{"url": "https://www.example.com", "max_depth": 2, "max_pages": 20}' http://localhost:5000/crawl ``` **개선 사항:** * **오류 처리:** 더 구체적인 오류 처리를 추가하여 문제 해결을 용이하게 할 수 있습니다. 예를 들어, `crawl4ai` 라이브러리에서 발생하는 특정 예외를 처리하고 사용자에게 더 유용한 오류 메시지를 제공할 수 있습니다. * **로깅:** 로깅을 추가하여 서버 활동을 추적하고 오류를 진단할 수 있습니다. * **구성:** `max_depth` 및 `max_pages`와 같은 매개변수를 환경 변수 또는 구성 파일에서 읽어와 코드를 수정하지 않고도 서버 동작을 변경할 수 있도록 할 수 있습니다. * **보안:** 프로덕션 환경에서는 보안을 강화해야 합니다. 예를 들어, 인증 및 권한 부여를 추가하여 무단 액세스를 방지할 수 있습니다. * **비동기 처리:** 크롤링 작업은 시간이 오래 걸릴 수 있으므로 비동기적으로 처리하여 서버 응답성을 향상시킬 수 있습니다. `Celery` 또는 `asyncio`와 같은 라이브러리를 사용하여 비동기 작업을 구현할 수 있습니다. * **데이터 저장:** 크롤링된 데이터를 데이터베이스에 저장하여 나중에 분석하거나 사용할 수 있습니다. * **Rate Limiting:** 크롤링 대상 웹사이트에 과도한 부하를 주지 않도록 요청 속도를 제한하는 기능을 추가할 수 있습니다. 이 코드는 Crawl4AI 라이브러리를 사용하여 웹사이트를 크롤링하고 결과를 반환하는 기본적인 MCP 서버를 제공합니다. 필요에 따라 기능을 확장하고 개선할 수 있습니다.
UniProt MCP Server
UniProt MCP Server
mcp-voice-hooks
Voice Mode for Claude Code
Demo Server
A simple MCP server built with Python's FastMCP that exposes a calculator tool for addition operations and a dynamic greeting resource for personalized messages.
Gmail MCP Server
Enables AI assistants to interact with Gmail through OAuth2 authentication, allowing users to list, search, read emails, and create drafts with a safety-first design that prevents accidental sends by default.
AFL (Australian Football League) MCP Server
이것은 Squiggle API에서 AFL(호주 풋볼 리그) 데이터를 제공하는 MCP(모델 컨텍스트 프로토콜) 서버입니다.
token-rugcheck
MCP server for real-time Solana token risk analysis. Cross-references RugCheck.xyz, DexScreener, and GoPlus Security to generate three-layer reports: machine verdict → LLM analysis → raw on-chain evidence. Live on Solana mainnet with USDC micropayments ($0.02/audit). Give any AI agent the ability to check if a token is safe before trading.
Marvel MCP Server using Azure Functions
Azure Functions 기반 MCP 서버로, 공식 Marvel Developer API를 통해 Marvel 캐릭터 및 만화 데이터와 상호 작용할 수 있습니다.
GitHub Repos Manager MCP Server
GitHub Repos Manager MCP Server
Hospital WAF MCP
A Model Context Protocol server that exposes a hospital-oriented web application firewall engine for AI assistants. It enables request inspection against curated security rules and provides tools for rule management and security testing.
MCP Presidio Server
Enables anonymization and deanonymization of sensitive data in text using Microsoft Presidio. Supports session-based storage to reversibly replace sensitive information like passwords and secrets with placeholder tokens.
simple-ai-provenance
An MCP server that tracks AI prompts in Claude Code and automatically annotates git commits with the history of what was asked. It provides tools to query session summaries, retrieve uncommitted work, and manage AI provenance directly within Claude.
Nuclei MCP
Connects Nuclei vulnerability scanner with MCP-compatible applications, enabling AI assistants to perform security testing through natural language interactions.
Email Triage MCP
Enables AI agents to interact with Gmail for classifying messages, extracting action items, and performing batch inbox triage. It supports automated labeling, smart replies, and task creation for external platforms like Linear, Jira, and Todoist.
Apache AGE MCP Server
Enables AI agents to manage and interact with Apache AGE graph databases through natural language. Supports creating, updating, querying, and visualizing multiple graphs with vertices and edges.
@sequel/mcp
클로드, 커서, 윈드서프용 MCP 데이터베이스 서버
Telecom Event Oracle
Provides real-time LNP/WLNP (Wireless Local Number Portability) and LRN auditing. Features specialized congestion logic for 2026 global events. Essential for routing agents managing wireless and wireline transit.