Discover Awesome MCP Servers
Extend your agent with 15,134 capabilities via MCP servers.
- All15,134
- Developer Tools3,867
- Search1,714
- Research & Data1,557
- AI Integration Systems229
- Cloud Platforms219
- Data & App Analysis181
- Database Interaction177
- Remote Shell Execution165
- Browser Automation147
- Databases145
- Communication137
- AI Content Generation127
- OS Automation120
- Programming Docs Access109
- Content Fetching108
- Note Taking97
- File Systems96
- Version Control93
- Finance91
- Knowledge & Memory90
- Monitoring79
- Security71
- Image & Video Processing69
- Digital Note Management66
- AI Memory Systems62
- Advanced AI Reasoning59
- Git Management Tools58
- Cloud Storage51
- Entertainment & Media43
- Virtualization42
- Location Services35
- Web Automation & Stealth32
- Media Content Processing32
- Calendar Management26
- Ecommerce & Retail18
- Speech Processing18
- Customer Data Platforms16
- Travel & Transportation14
- Education & Learning Tools13
- Home Automation & IoT13
- Web Search Integration12
- Health & Wellness10
- Customer Support10
- Marketing9
- Games & Gamification8
- Google Cloud Integrations7
- Art & Culture4
- Language Translation3
- Legal & Compliance2

javaDemo
javaDemo。GitHub でアカウントを作成して、zf0497/mydemo の開発に貢献しましょう。
MCP Server for X/Twitter
実際のブラウザ API を使用して X (旧 Twitter) アカウントを自動化 - JoshMayerr/mcp-x

Minima
オンプレミス環境で利用可能な会話型RAG、設定可能なコンテナ付き - dmayboroda/minima

NutJS Windows Control
OS自動化のためのクロスプラットフォームMCPサーバー。GitHubでアカウントを作成して、Cheffromspace/MCPControlの開発に貢献してください。
WebSearch
Web Search tools は、Claude が MCP サーバーを介してインターネットにアクセスできるようにする一連のツールです。
GitHub Support Assistant
GitHubの問題を検索し、issueの説明に基づいて類似度スコアを計算することで、サポートエンジニアが類似のissueを見つけやすくし、トラブルシューティングを迅速化します。
Cloudflare API MCP Server
Cursor Agent が Cloudflare API にアクセスできるようにするための軽量な MCP サーバー - zueai/cloudflare-api-mcp

MCP Server for eSignatures
eサイン用の契約書とテンプレートの管理を容易にし、ユーザーフレンドリーなインターフェースを通じて、カスタマイズ可能なオプションで契約書とテンプレートの作成、送信、更新、管理を可能にします。
Inoyu Apache Unomi MCP Server
Claude が Apache Unomi のプロファイル管理を通じてユーザーのコンテキストを維持できるようにする、モデルコンテキストプロトコルサーバー。

JSON MCP Server
LLMが、JSONPath構文と、フィルタリング、ソート、変換、集計のための拡張操作を用いてJSONデータをクエリおよび操作できるようにする、モデルコンテキストプロトコルサーバーの実装。
Zotero MCP Server
このサーバーは、Model Context Protocolを通じて、ユーザーがZoteroライブラリとやり取りできるようにするものです。自然言語クエリを使用して、アイテムの検索、メタデータの取得、全文へのアクセスなどのツールを提供します。

Radarr and Sonarr MCP Server
これは、Pythonで構築されたModel Context Protocolサーバーで、ClaudeのようなAIアシスタントがRadarrやSonarrのAPIを通じて、あなたの映画やテレビ番組のコレクションにアクセスし、問い合わせできるようにするものです。
Coding Standards MCP Server
Java、Python、Reactなど、様々な技術のコーディングスタイルガイドラインやベストプラクティスにアクセスするためのツールを提供します。
Semantic Scholar MCP Server
Semantic Scholar APIは、学術論文のデータ、著者情報、引用ネットワークへの包括的なアクセスを提供します。

GitHub MCP Server
Model Context Protocol Servers。GitHub でアカウントを作成して、modelcontextprotocol/servers の開発に貢献しましょう。
MCP Docling Server
Model Context Protocol を使用してドキュメント処理機能を提供するサーバー。ドキュメントを Markdown に変換したり、テーブルを抽出したり、ドキュメント画像を処理したりできます。

MCP Tavily
Tavilyのmcpサーバー。GitHubでアカウントを作成して、kshern/mcp-tavilyの開発に貢献しましょう。

OpenAPI

datadog
Okay, here's how you can access monitor and cluster logs from Datadog, broken down into steps and considerations: **1. Accessing Monitor Logs (Events):** * **Datadog UI:** * **Event Stream:** The primary place to see monitor events. Navigate to **Monitors -> Manage Monitors**. Click on a specific monitor. You'll see a history of events (alerts, recoveries, etc.) related to that monitor. You can filter by time range, status (alert, warning, ok), and other criteria. * **Event Explorer:** Navigate to **Events -> Explorer**. This gives you a broader view of all events in your Datadog environment, including monitor events. You can filter by source (e.g., `monitor`), tags, time range, and other attributes to find the specific monitor events you're looking for. Use the search bar to filter by monitor name or ID. * **Dashboards:** You can create dashboards that display monitor status and event information. Add widgets like "Event Stream" or "Query Value" widgets to show the current status of monitors or the number of alerts triggered. * **Datadog API:** * **Events API:** Use the Datadog Events API to programmatically retrieve monitor events. This is useful for automation, reporting, and integrating with other systems. You'll need an API key and application key. Here's a basic example using `curl`: ```bash curl -G "https://api.datadoghq.com/api/v1/events" \ -d "api_key=<YOUR_API_KEY>" \ -d "application_key=<YOUR_APPLICATION_KEY>" \ -d "start=1678886400" \ # Example start timestamp (Unix epoch) -d "end=1678972800" \ # Example end timestamp (Unix epoch) -d "sources=monitor" ``` Replace `<YOUR_API_KEY>` and `<YOUR_APPLICATION_KEY>` with your actual keys. Adjust the `start` and `end` timestamps to the desired time range. The `sources=monitor` filter is crucial to only get monitor events. You can add other filters as needed. **2. Accessing Cluster Logs:** * **Datadog UI:** * **Log Explorer:** Navigate to **Logs -> Explorer**. This is the main interface for searching and analyzing logs. * **Filters:** Use the search bar and facets (the filters on the left-hand side) to narrow down your logs. Here are some common filters for cluster logs: * **`source`:** Filter by the source of the logs (e.g., `kubernetes`, `docker`, `systemd`). * **`service`:** Filter by the service name (e.g., the name of your application running in the cluster). * **`hostname`:** Filter by the hostname of the node in the cluster. * **`kubernetes.namespace.name`:** Filter by Kubernetes namespace. * **`kubernetes.pod.name`:** Filter by Kubernetes pod name. * **`kubernetes.container.name`:** Filter by Kubernetes container name. * **Free Text Search:** Use keywords or phrases to search for specific log messages. * **Live Tail:** Use the "Live Tail" feature to see logs in real-time as they are generated. This is useful for troubleshooting issues as they occur. * **Dashboards:** Create dashboards to visualize log data. You can use widgets like "Log Stream," "Top List," and "Timeseries" to display log counts, error rates, and other metrics derived from your logs. * **Datadog API:** * **Logs API:** Use the Datadog Logs API to programmatically retrieve logs. This is useful for automation, reporting, and integrating with other systems. You'll need an API key and application key. Here's a basic example using `curl`: ```bash curl -X POST "https://http-intake.logs.datadoghq.com/v1/input" \ -H "DD-API-KEY: <YOUR_API_KEY>" \ -H "DD-APPLICATION-KEY: <YOUR_APPLICATION_KEY>" \ -H "Content-Type: application/json" \ -d '[{"message":"This is a test log message", "service":"my-app", "hostname":"my-host"}]' ``` To *search* logs via the API, you'll need to use the Datadog Search API. This is more complex and requires constructing a query. Refer to the Datadog API documentation for details. **Important Considerations:** * **Datadog Agent:** Ensure the Datadog Agent is properly installed and configured on all nodes in your cluster. The agent is responsible for collecting logs and metrics and sending them to Datadog. For Kubernetes, use the Datadog Agent DaemonSet. * **Log Collection Configuration:** Configure the Datadog Agent to collect the specific logs you need. This typically involves specifying the log file paths or using autodiscovery to automatically detect log files based on container labels or annotations. For Kubernetes, use the `datadog.yaml` configuration file. * **Log Processing Rules:** Use Datadog's log processing rules to parse, enrich, and filter your logs. This can help you extract meaningful information from your logs and reduce noise. You can define rules to parse JSON logs, extract fields from log messages, and add tags based on log content. * **Retention Policies:** Be aware of Datadog's log retention policies. Logs are typically retained for a limited time, depending on your Datadog plan. Consider archiving logs to a long-term storage solution if you need to retain them for longer periods. * **Security:** Protect your Datadog API keys and application keys. Do not expose them in public code repositories or configuration files. Use environment variables or secrets management tools to store your keys securely. * **Cost:** Log ingestion and retention can incur costs in Datadog. Monitor your log volume and optimize your log collection configuration to minimize costs. Use filters and sampling to reduce the amount of data you send to Datadog. * **Kubernetes Integration:** For Kubernetes clusters, leverage Datadog's Kubernetes integration. This provides automatic discovery of pods, containers, and services, and simplifies log collection and monitoring. Use the Datadog Operator for Kubernetes for easier management. * **Context:** When investigating issues, correlate monitor events with relevant logs. Use Datadog's linking features to jump from a monitor event to the corresponding logs. This helps you quickly identify the root cause of problems. **Example: Finding Error Logs in Kubernetes** Let's say you want to find error logs from a specific Kubernetes pod named `my-app-pod` in the `default` namespace. In the Datadog Log Explorer, you would use the following filters: * `kubernetes.namespace.name:default` * `kubernetes.pod.name:my-app-pod` * `status:error` (or search for keywords like "error", "exception", "failed") This will show you all error logs from that pod. You can then analyze the logs to identify the cause of the errors. **In summary:** 1. **Monitors:** Use the Monitor Management page or Events Explorer in the Datadog UI, or the Events API. 2. **Cluster Logs:** Use the Log Explorer in the Datadog UI, or the Logs API. Filter by source, service, hostname, Kubernetes metadata, and keywords. 3. **Configure the Datadog Agent** correctly to collect the logs you need. 4. **Use Log Processing Rules** to parse and enrich your logs. 5. **Secure your API keys.** 6. **Monitor your log volume** to control costs. I hope this comprehensive guide helps you access monitor and cluster logs from Datadog! Let me know if you have any more specific questions.

Penrose MCP Server
Penroseのドメイン固有言語を用いて、自然言語による数式図の作成を容易にします。数式の型、関係性、および視覚的表現のルールを定義できます。

OKX MCP Server
OKX取引所からの暗号通貨価格データを、モデルコンテキストプロトコルインターフェースを通じてリアルタイムで提供します。これにより、あらゆる取引銘柄の過去のローソク足データと現在の市場価格にアクセスできます。
Together AI Image Server
Claudeやその他のMCP互換アシスタントが、Together AIの画像生成モデルを使用して、テキストプロンプトから画像を生成できるようにするMCPサーバー。
Twitch MCP Server
Twitch APIとの連携を可能にし、チャンネル、ストリーム、ゲームなどに関する包括的な情報を取得できます。さらに、検索や、エモートやバッジなどのチャット要素へのアクセスもサポートしています。

Microsoft SQL Server MCP Server
AIアシスタントが、制御されたインターフェースを通じて、テーブルの一覧表示、データの読み取り、SQLクエリの実行を可能にする、Microsoft SQL Serverデータベースとの安全なインタラクションを実現するモデルコンテキストプロトコルサーバー。
Lichess MCP
Lichessのチェスプラットフォームと自然言語でやり取りできるMCPサーバー。ユーザーはClaudeを通じて、対局、局面分析、アカウント管理、トーナメント参加などを行えます。
Unofficial dubco-mcp-server
AIアシスタントがDub.co APIを通じてDub.coの短縮リンクを作成、更新、削除できるようにする、モデルコンテキストプロトコルサーバー。
Systemprompt MCP Gmail Server
AIエージェント支援によるGmailアカウント管理を可能にし、MCPプロトコルを介して、音声操作インターフェースでメールの検索、閲覧、削除、送信をサポートします。
RagDocs MCP Server
QdrantベクトルデータベースとOllama/OpenAI埋め込みを使用して、セマンティックドキュメント検索のためのRAG機能を提供します。ユーザーは、メタデータサポート付きでドキュメントの追加、検索、一覧表示、削除ができます。
Finnhub MCP Server
このサーバーは、Finnhub APIとのインターフェースを提供し、ユーザーが特定の株式に関する最新の市場ニュース、株式市場データ、基本的な財務情報、および推奨トレンドを取得できるようにします。
Academic Paper Search MCP Server
複数の情報源から学術論文情報をリアルタイムで検索・取得できるようにし、論文のメタデータ、要約、および利用可能な場合は全文コンテンツへのアクセスを提供します。ツール/関数呼び出しをサポートするAIモデルとの統合のために、構造化されたデータ応答を提供します。