Discover Awesome MCP Servers
Extend your agent with 23,495 capabilities via MCP servers.
- All23,495
- Developer Tools3,867
- Search1,714
- Research & Data1,557
- AI Integration Systems229
- Cloud Platforms219
- Data & App Analysis181
- Database Interaction177
- Remote Shell Execution165
- Browser Automation147
- Databases145
- Communication137
- AI Content Generation127
- OS Automation120
- Programming Docs Access109
- Content Fetching108
- Note Taking97
- File Systems96
- Version Control93
- Finance91
- Knowledge & Memory90
- Monitoring79
- Security71
- Image & Video Processing69
- Digital Note Management66
- AI Memory Systems62
- Advanced AI Reasoning59
- Git Management Tools58
- Cloud Storage51
- Entertainment & Media43
- Virtualization42
- Location Services35
- Web Automation & Stealth32
- Media Content Processing32
- Calendar Management26
- Ecommerce & Retail18
- Speech Processing18
- Customer Data Platforms16
- Travel & Transportation14
- Education & Learning Tools13
- Home Automation & IoT13
- Web Search Integration12
- Health & Wellness10
- Customer Support10
- Marketing9
- Games & Gamification8
- Google Cloud Integrations7
- Art & Culture4
- Language Translation3
- Legal & Compliance2
MoEngage Documentation MCP Server
Provides comprehensive access to MoEngage documentation from developers, help, and partners portals with full-text search, automatic updates, and intelligent filtering by platform, category, and source.
12306 MCP Server
A high-performance FastAPI backend for train ticket queries in China, supporting real-time ticket availability, station information, transfers, and train schedules through the Model Context Protocol for AI assistants and automation.
Remote MCP Server on Cloudflare
DriveBC MCP Server
Provides real-time access to BC highway conditions, road closures, weather alerts, and traffic incidents through the Open511-DriveBC API with smart caching.
MSSQL MCP Server
Enables AI assistants to interact with Microsoft SQL Server databases through a standardized interface. Supports executing SQL queries, browsing database schemas, and viewing table data with flexible authentication options for both local and Azure SQL databases.
Firestore Advanced MCP
大規模言語モデル(LLM)であるClaudeが、Firebase Firestoreデータベースと包括的なインタラクションを実行できるようにする、モデルコンテキストプロトコルサーバー。完全なCRUD操作、複雑なクエリ、トランザクションやTTL管理などの高度な機能をサポートします。
FastMCP SonarQube Metrics
A server that provides tools for retrieving SonarQube project metrics and quality data through a simplified message-based approach, allowing users to programmatically access metrics, historical data, and component-level information from SonarQube.
Edit-MCP
A Model Context Protocol server that integrates with Microsoft's Edit tool, allowing AI systems to perform file operations from simple reads/writes to complex code editing and refactoring.
Japanese Weather MCP Server
A Model Context Protocol (MCP) server that provides access to Japanese weather forecasts using the weather.tsukumijima.net API.
Safer Fetch MCP Server
Enables fetching and converting web content to markdown with built-in prompt injection safeguards that detect and block malicious content attempting to manipulate the LLM.
Claude Web Search MCP Server
Provides web search capabilities to Claude AI using the Anthropic API, allowing LLMs to access up-to-date information from the web with customizable domain filtering.
athenahealth MCP Server
Enables AI-powered clinical decision support by integrating with athenahealth's API to access patient data, manage prescriptions, check drug interactions, and generate clinical assessments. Provides HIPAA-compliant healthcare workflows with comprehensive audit logging and data sanitization.
MCP_claude
これは、Claude Desktop MCPクライアント用にMCPサーバーを構築する方法を示すためのものです。
At-Work API MCP Server
An MCP (Multi-Agent Conversation Protocol) Server that enables interaction with the At-Work API (api.at-work.biz), allowing agents to communicate with this service through various transport modes like stdio, SSE, and HTTP.
Mock Store MCP Server
Enables AI agents to explore and query a mock e-commerce store's data including customers, products, inventory, and orders through conversational interactions backed by PostgreSQL.
crawl4ai-mcp
了解しました。以下に、Crawl4AIライブラリをPythonで関数としてラップし、MCP (Model Context Protocol) サーバーとして機能させるためのコード例と説明を示します。 **概要** このコードは、以下のことを行います。 1. **Crawl4AIライブラリのインポート:** Crawl4AIライブラリをインポートし、必要な関数を使用できるようにします。 2. **関数ラッパーの定義:** Crawl4AIの機能をPython関数としてラップします。これらの関数は、MCPサーバーから呼び出すことができます。 3. **MCPサーバーの実装:** MCPサーバーを実装し、クライアントからのリクエストをリッスンし、適切な関数を呼び出して結果を返します。 4. **エラー処理:** エラーが発生した場合に、適切なエラーメッセージをクライアントに返します。 **コード例 (Python)** ```python import json import socket import threading import crawl4ai # Crawl4AIライブラリをインポート (インストールが必要) # Crawl4AIライブラリの関数をラップする関数 def crawl_website(url, max_depth=1): """ 指定されたURLからウェブサイトをクロールし、結果を返します。 Args: url (str): クロールするウェブサイトのURL。 max_depth (int): クロールの最大深度 (デフォルト: 1)。 Returns: str: クロール結果のJSON文字列。 """ try: crawler = crawl4ai.Crawler(url, max_depth=max_depth) results = crawler.crawl() return json.dumps(results) # 結果をJSON形式に変換 except Exception as e: return json.dumps({"error": str(e)}) # エラーをJSON形式で返す # MCPサーバーの実装 class MCPServer: def __init__(self, host, port): self.host = host self.port = port self.server_socket = socket.socket(socket.AF_INET, socket.SOCK_STREAM) self.server_socket.setsockopt(socket.SOL_SOCKET, socket.SO_REUSEADDR, 1) # アドレス再利用を許可 self.server_socket.bind((self.host, self.port)) self.server_socket.listen(5) # 最大5つの接続をキューに入れる print(f"MCPサーバーが {self.host}:{self.port} で起動しました") def run(self): while True: client_socket, addr = self.server_socket.accept() print(f"クライアント {addr} からの接続を受け入れました") client_thread = threading.Thread(target=self.handle_client, args=(client_socket,)) client_thread.start() def handle_client(self, client_socket): try: request_data = client_socket.recv(1024).decode('utf-8') if not request_data: print("クライアントからのデータがありません") return try: request = json.loads(request_data) action = request.get("action") params = request.get("params", {}) if action == "crawl_website": url = params.get("url") max_depth = params.get("max_depth", 1) response = crawl_website(url, max_depth) else: response = json.dumps({"error": "無効なアクション"}) except json.JSONDecodeError: response = json.dumps({"error": "無効なJSONリクエスト"}) client_socket.sendall(response.encode('utf-8')) except Exception as e: print(f"クライアント処理中にエラーが発生しました: {e}") finally: client_socket.close() print("クライアント接続を閉じました") # サーバーの起動 if __name__ == "__main__": HOST = "127.0.0.1" # localhost PORT = 65432 # 使用するポート番号 server = MCPServer(HOST, PORT) server.run() ``` **コードの説明** * **`crawl_website(url, max_depth=1)` 関数:** * `crawl4ai.Crawler(url, max_depth=max_depth)`: Crawl4AIライブラリを使用して、指定されたURLからウェブサイトをクロールするためのCrawlerオブジェクトを作成します。`max_depth`はクロールの深さを指定します。 * `crawler.crawl()`: ウェブサイトのクロールを実行し、結果を取得します。 * `json.dumps(results)`: クロール結果をJSON形式の文字列に変換します。これは、MCPサーバーがクライアントにデータを送信するために必要です。 * `try...except` ブロック: エラー処理を行います。クロール中にエラーが発生した場合、エラーメッセージをJSON形式で返します。 * **`MCPServer` クラス:** * `__init__(self, host, port)`: コンストラクタ。ホストとポート番号を設定し、サーバーソケットを作成してバインドします。`setsockopt(socket.SOL_SOCKET, socket.SO_REUSEADDR, 1)` は、サーバーを再起動する際にアドレスが使用中であるというエラーを回避するために使用されます。 * `run(self)`: サーバーのメインループ。クライアントからの接続を待ち受け、接続を受け入れると、新しいスレッドを作成してクライアントの処理を行います。 * `handle_client(self, client_socket)`: クライアントからのリクエストを処理する関数。 * `client_socket.recv(1024).decode('utf-8')`: クライアントからデータを受信します。 * `json.loads(request_data)`: 受信したデータをJSON形式にデコードします。 * `request.get("action")`: リクエストから実行するアクションを取得します。 * `request.get("params", {})`: リクエストからパラメータを取得します。 * `if action == "crawl_website"`: アクションが "crawl\_website" の場合、`crawl_website` 関数を呼び出してクロールを実行し、結果をクライアントに返します。 * `json.dumps({"error": "無効なアクション"})`: 無効なアクションが指定された場合、エラーメッセージをJSON形式で返します。 * `client_socket.sendall(response.encode('utf-8'))`: クライアントに応答を送信します。 * `client_socket.close()`: クライアントソケットを閉じます。 * `try...except...finally` ブロック: エラー処理を行います。クライアント処理中にエラーが発生した場合、エラーメッセージを出力し、最後にクライアントソケットを閉じます。 * **`if __name__ == "__main__":` ブロック:** * サーバーを起動するためのコードが含まれています。 * `HOST = "127.0.0.1"`: サーバーがリッスンするホストアドレスを設定します (localhost)。 * `PORT = 65432`: サーバーがリッスンするポート番号を設定します。 * `server = MCPServer(HOST, PORT)`: MCPServerオブジェクトを作成します。 * `server.run()`: サーバーを起動します。 **使用方法** 1. **Crawl4AIライブラリのインストール:** ```bash pip install crawl4ai ``` 2. **コードの保存:** 上記のコードを `mcp_server.py` などのファイルに保存します。 3. **サーバーの実行:** ```bash python mcp_server.py ``` 4. **クライアントからのリクエストの送信:** クライアントからJSON形式のリクエストを送信します。例えば、`curl` コマンドを使用できます。 ```bash curl -X POST -H "Content-Type: application/json" -d '{"action": "crawl_website", "params": {"url": "https://www.example.com", "max_depth": 2}}' http://127.0.0.1:65432 ``` **クライアント側の例 (Python)** ```python import socket import json def send_request(host, port, action, params): """ MCPサーバーにリクエストを送信し、応答を受信します。 Args: host (str): サーバーのホストアドレス。 port (int): サーバーのポート番号。 action (str): 実行するアクション。 params (dict): アクションのパラメータ。 Returns: dict: サーバーからの応答。 """ try: client_socket = socket.socket(socket.AF_INET, socket.SOCK_STREAM) client_socket.connect((host, port)) request = {"action": action, "params": params} request_data = json.dumps(request).encode('utf-8') client_socket.sendall(request_data) response_data = client_socket.recv(4096).decode('utf-8') response = json.loads(response_data) return response except Exception as e: print(f"エラーが発生しました: {e}") return {"error": str(e)} finally: client_socket.close() if __name__ == "__main__": HOST = "127.0.0.1" PORT = 65432 # ウェブサイトのクロールをリクエスト response = send_request(HOST, PORT, "crawl_website", {"url": "https://www.example.com", "max_depth": 2}) print(f"サーバーからの応答: {response}") # 無効なアクションをリクエスト response = send_request(HOST, PORT, "invalid_action", {}) print(f"サーバーからの応答: {response}") ``` **注意点** * **エラー処理:** コードには基本的なエラー処理が含まれていますが、より堅牢なエラー処理が必要な場合は、例外処理を改善してください。 * **セキュリティ:** このコードは基本的な例であり、セキュリティ対策は含まれていません。本番環境で使用する場合は、セキュリティ対策を検討してください。 * **スケーラビリティ:** このコードはシングルスレッドで動作するため、大量のリクエストを処理するにはスケーラビリティが不足する可能性があります。よりスケーラブルなソリューションが必要な場合は、非同期処理やマルチプロセスなどを検討してください。 * **Crawl4AIライブラリの制限:** Crawl4AIライブラリの制限事項 (クロールできるウェブサイトの種類、クロール速度など) を考慮してください。 * **依存関係:** `crawl4ai` ライブラリがインストールされていることを確認してください。 **改善点** * **設定ファイルの利用:** ホスト、ポート番号、Crawl4AIの設定などを設定ファイルから読み込むようにすると、柔軟性が向上します。 * **ロギング:** ロギングを実装して、サーバーの動作状況を記録するようにすると、デバッグや監視が容易になります。 * **認証:** クライアントからのリクエストを認証するようにすると、セキュリティが向上します。 * **レート制限:** クライアントからのリクエストにレート制限を設けることで、サーバーの負荷を軽減できます。 * **非同期処理:** `asyncio` などの非同期処理ライブラリを使用すると、サーバーのスループットを向上させることができます。 このコードはあくまで基本的な例であり、実際の使用状況に合わせてカスタマイズする必要があります。特に、エラー処理、セキュリティ、スケーラビリティについては、十分な検討が必要です。 **日本語訳 (概要)** このコードは、Crawl4AIライブラリをPythonで関数としてラップし、MCP (Model Context Protocol) サーバーとして機能させるためのものです。 1. **Crawl4AIライブラリのインポート:** Crawl4AIライブラリをインポートし、必要な関数を使えるようにします。 2. **関数ラッパーの定義:** Crawl4AIの機能をPython関数としてラップします。これらの関数は、MCPサーバーから呼び出すことができます。 3. **MCPサーバーの実装:** MCPサーバーを実装し、クライアントからのリクエストをリッスンし、適切な関数を呼び出して結果を返します。 4. **エラー処理:** エラーが発生した場合に、適切なエラーメッセージをクライアントに返します。 **注意点 (日本語訳)** * **エラー処理:** コードには基本的なエラー処理が含まれていますが、より堅牢なエラー処理が必要な場合は、例外処理を改善してください。 * **セキュリティ:** このコードは基本的な例であり、セキュリティ対策は含まれていません。本番環境で使用する場合は、セキュリティ対策を検討してください。 * **スケーラビリティ:** このコードはシングルスレッドで動作するため、大量のリクエストを処理するにはスケーラビリティが不足する可能性があります。よりスケーラブルなソリューションが必要な場合は、非同期処理やマルチプロセスなどを検討してください。 * **Crawl4AIライブラリの制限:** Crawl4AIライブラリの制限事項 (クロールできるウェブサイトの種類、クロール速度など) を考慮してください。 * **依存関係:** `crawl4ai` ライブラリがインストールされていることを確認してください。 このコードはあくまで基本的な例であり、実際の使用状況に合わせてカスタマイズする必要があります。特に、エラー処理、セキュリティ、スケーラビリティについては、十分な検討が必要です。
HR Assistant Agent
An MCP-powered HR management system that automates employee onboarding, leave tracking, meeting scheduling, and IT ticketing. It allows users to manage organizational workflows and administrative tasks through natural language interactions with Claude.
YAPI MCP Server
Ultra MCP
A Model Context Protocol server that exposes OpenAI and Gemini AI models through a single interface, allowing tools like Claude Code and Cursor to access multiple AI providers with built-in usage analytics.
MCP Gateway
MCPゲートウェイは、リバースプロキシサーバーであり、クライアントからのリクエストをMCPサーバーに転送したり、ゲートウェイ下のすべてのMCPサーバーを統一されたポータルを通じて利用したりします。
MCP TODO Server
Enables AI agents and automation tools to manage TODO tasks through full CRUD operations. Built with NestJS and supports both SSE and Stdio transports for seamless integration with Claude Desktop, ChatGPT, and n8n.
Sunsama MCP Server
Enables AI assistants to manage tasks in Sunsama, including creating tasks, reading daily and backlog tasks, marking tasks complete, and organizing projects through streams.
Framelink Figma MCP Server Extension for Zed
Context MCP
Provides persistent context management for AI agents by storing and querying semantic information using Upstash Vector DB and Google AI embeddings. It enables semantic search, batch operations, and metadata filtering to help agents retrieve relevant stored knowledge.
mcp-k8s
MCP k8s サーバー
Hugging Face MCP Server
Enables access to 200,000+ machine learning models through the Hugging Face Inference API. Supports text generation, image creation, classification, translation, speech processing, embeddings, and more AI tasks.
Self-Hosted Supabase MCP Server
A protocol server that enables interaction with self-hosted Supabase instances directly from development environments, allowing database introspection, management of migrations, auth users, and storage through MCP clients like IDE extensions.
Research Paper Ingestion MCP Server
Enables searching, downloading, and analyzing academic papers from arXiv and Semantic Scholar to extract key insights and citation metrics. It facilitates autonomous knowledge acquisition by processing research findings and integrating them into persistent AI memory systems.
Mcp Android Adb Server
AI大規模モデルによるAndroidデバイスの操作
Google Ads Content Generator MCP Server
An MCP server implementation that enables generation of Google Ads content through Claude Code, Claude Desktop, and other MCP-compatible clients.