Discover Awesome MCP Servers
Extend your agent with 20,402 capabilities via MCP servers.
- All20,402
- Developer Tools3,867
- Search1,714
- Research & Data1,557
- AI Integration Systems229
- Cloud Platforms219
- Data & App Analysis181
- Database Interaction177
- Remote Shell Execution165
- Browser Automation147
- Databases145
- Communication137
- AI Content Generation127
- OS Automation120
- Programming Docs Access109
- Content Fetching108
- Note Taking97
- File Systems96
- Version Control93
- Finance91
- Knowledge & Memory90
- Monitoring79
- Security71
- Image & Video Processing69
- Digital Note Management66
- AI Memory Systems62
- Advanced AI Reasoning59
- Git Management Tools58
- Cloud Storage51
- Entertainment & Media43
- Virtualization42
- Location Services35
- Web Automation & Stealth32
- Media Content Processing32
- Calendar Management26
- Ecommerce & Retail18
- Speech Processing18
- Customer Data Platforms16
- Travel & Transportation14
- Education & Learning Tools13
- Home Automation & IoT13
- Web Search Integration12
- Health & Wellness10
- Customer Support10
- Marketing9
- Games & Gamification8
- Google Cloud Integrations7
- Art & Culture4
- Language Translation3
- Legal & Compliance2
javaDemo
javaDemo。GitHub でアカウントを作成して、zf0497/mydemo の開発に貢献しましょう。
MCP Server for X/Twitter
実際のブラウザ API を使用して X (旧 Twitter) アカウントを自動化 - JoshMayerr/mcp-x
Minima
オンプレミス環境で利用可能な会話型RAG、設定可能なコンテナ付き - dmayboroda/minima
NutJS Windows Control
OS自動化のためのクロスプラットフォームMCPサーバー。GitHubでアカウントを作成して、Cheffromspace/MCPControlの開発に貢献してください。
WebSearch
Web Search tools は、Claude が MCP サーバーを介してインターネットにアクセスできるようにする一連のツールです。
GitHub Support Assistant
GitHubの問題を検索し、issueの説明に基づいて類似度スコアを計算することで、サポートエンジニアが類似のissueを見つけやすくし、トラブルシューティングを迅速化します。
Cloudflare API MCP Server
Cursor Agent が Cloudflare API にアクセスできるようにするための軽量な MCP サーバー - zueai/cloudflare-api-mcp
MCP Server for eSignatures
eサイン用の契約書とテンプレートの管理を容易にし、ユーザーフレンドリーなインターフェースを通じて、カスタマイズ可能なオプションで契約書とテンプレートの作成、送信、更新、管理を可能にします。
Inoyu Apache Unomi MCP Server
Claude が Apache Unomi のプロファイル管理を通じてユーザーのコンテキストを維持できるようにする、モデルコンテキストプロトコルサーバー。
JSON MCP Server
LLMが、JSONPath構文と、フィルタリング、ソート、変換、集計のための拡張操作を用いてJSONデータをクエリおよび操作できるようにする、モデルコンテキストプロトコルサーバーの実装。
Zotero MCP Server
このサーバーは、Model Context Protocolを通じて、ユーザーがZoteroライブラリとやり取りできるようにするものです。自然言語クエリを使用して、アイテムの検索、メタデータの取得、全文へのアクセスなどのツールを提供します。
Radarr and Sonarr MCP Server
これは、Pythonで構築されたModel Context Protocolサーバーで、ClaudeのようなAIアシスタントがRadarrやSonarrのAPIを通じて、あなたの映画やテレビ番組のコレクションにアクセスし、問い合わせできるようにするものです。
Coding Standards MCP Server
Java、Python、Reactなど、様々な技術のコーディングスタイルガイドラインやベストプラクティスにアクセスするためのツールを提供します。
Semantic Scholar MCP Server
Semantic Scholar APIは、学術論文のデータ、著者情報、引用ネットワークへの包括的なアクセスを提供します。
GitHub MCP Server
Model Context Protocol Servers。GitHub でアカウントを作成して、modelcontextprotocol/servers の開発に貢献しましょう。
MCP Docling Server
Model Context Protocol を使用してドキュメント処理機能を提供するサーバー。ドキュメントを Markdown に変換したり、テーブルを抽出したり、ドキュメント画像を処理したりできます。
MCP Tavily
Tavilyのmcpサーバー。GitHubでアカウントを作成して、kshern/mcp-tavilyの開発に貢献しましょう。
OpenAPI
datadog
Okay, here's how you can access monitor and cluster logs from Datadog, broken down into steps and considerations: **1. Accessing Monitor Logs (Events):** * **Datadog UI:** * **Event Stream:** The primary place to see monitor events. Navigate to **Monitors -> Manage Monitors**. Click on a specific monitor. You'll see a history of events (alerts, recoveries, etc.) related to that monitor. You can filter by time range, status (alert, warning, ok), and other criteria. * **Event Explorer:** Navigate to **Events -> Explorer**. This gives you a broader view of all events in your Datadog environment, including monitor events. You can filter by source (e.g., `monitor`), tags, time range, and other attributes to find the specific monitor events you're looking for. Use the search bar to filter by monitor name or ID. * **Dashboards:** You can create dashboards that display monitor status and event information. Add widgets like "Event Stream" or "Query Value" widgets to show the current status of monitors or the number of alerts triggered. * **Datadog API:** * **Events API:** Use the Datadog Events API to programmatically retrieve monitor events. This is useful for automation, reporting, and integrating with other systems. You'll need an API key and application key. Here's a basic example using `curl`: ```bash curl -G "https://api.datadoghq.com/api/v1/events" \ -d "api_key=<YOUR_API_KEY>" \ -d "application_key=<YOUR_APPLICATION_KEY>" \ -d "start=1678886400" \ # Example start timestamp (Unix epoch) -d "end=1678972800" \ # Example end timestamp (Unix epoch) -d "sources=monitor" ``` Replace `<YOUR_API_KEY>` and `<YOUR_APPLICATION_KEY>` with your actual keys. Adjust the `start` and `end` timestamps to the desired time range. The `sources=monitor` filter is crucial to only get monitor events. You can add other filters as needed. **2. Accessing Cluster Logs:** * **Datadog UI:** * **Log Explorer:** Navigate to **Logs -> Explorer**. This is the main interface for searching and analyzing logs. * **Filters:** Use the search bar and facets (the filters on the left-hand side) to narrow down your logs. Here are some common filters for cluster logs: * **`source`:** Filter by the source of the logs (e.g., `kubernetes`, `docker`, `systemd`). * **`service`:** Filter by the service name (e.g., the name of your application running in the cluster). * **`hostname`:** Filter by the hostname of the node in the cluster. * **`kubernetes.namespace.name`:** Filter by Kubernetes namespace. * **`kubernetes.pod.name`:** Filter by Kubernetes pod name. * **`kubernetes.container.name`:** Filter by Kubernetes container name. * **Free Text Search:** Use keywords or phrases to search for specific log messages. * **Live Tail:** Use the "Live Tail" feature to see logs in real-time as they are generated. This is useful for troubleshooting issues as they occur. * **Dashboards:** Create dashboards to visualize log data. You can use widgets like "Log Stream," "Top List," and "Timeseries" to display log counts, error rates, and other metrics derived from your logs. * **Datadog API:** * **Logs API:** Use the Datadog Logs API to programmatically retrieve logs. This is useful for automation, reporting, and integrating with other systems. You'll need an API key and application key. Here's a basic example using `curl`: ```bash curl -X POST "https://http-intake.logs.datadoghq.com/v1/input" \ -H "DD-API-KEY: <YOUR_API_KEY>" \ -H "DD-APPLICATION-KEY: <YOUR_APPLICATION_KEY>" \ -H "Content-Type: application/json" \ -d '[{"message":"This is a test log message", "service":"my-app", "hostname":"my-host"}]' ``` To *search* logs via the API, you'll need to use the Datadog Search API. This is more complex and requires constructing a query. Refer to the Datadog API documentation for details. **Important Considerations:** * **Datadog Agent:** Ensure the Datadog Agent is properly installed and configured on all nodes in your cluster. The agent is responsible for collecting logs and metrics and sending them to Datadog. For Kubernetes, use the Datadog Agent DaemonSet. * **Log Collection Configuration:** Configure the Datadog Agent to collect the specific logs you need. This typically involves specifying the log file paths or using autodiscovery to automatically detect log files based on container labels or annotations. For Kubernetes, use the `datadog.yaml` configuration file. * **Log Processing Rules:** Use Datadog's log processing rules to parse, enrich, and filter your logs. This can help you extract meaningful information from your logs and reduce noise. You can define rules to parse JSON logs, extract fields from log messages, and add tags based on log content. * **Retention Policies:** Be aware of Datadog's log retention policies. Logs are typically retained for a limited time, depending on your Datadog plan. Consider archiving logs to a long-term storage solution if you need to retain them for longer periods. * **Security:** Protect your Datadog API keys and application keys. Do not expose them in public code repositories or configuration files. Use environment variables or secrets management tools to store your keys securely. * **Cost:** Log ingestion and retention can incur costs in Datadog. Monitor your log volume and optimize your log collection configuration to minimize costs. Use filters and sampling to reduce the amount of data you send to Datadog. * **Kubernetes Integration:** For Kubernetes clusters, leverage Datadog's Kubernetes integration. This provides automatic discovery of pods, containers, and services, and simplifies log collection and monitoring. Use the Datadog Operator for Kubernetes for easier management. * **Context:** When investigating issues, correlate monitor events with relevant logs. Use Datadog's linking features to jump from a monitor event to the corresponding logs. This helps you quickly identify the root cause of problems. **Example: Finding Error Logs in Kubernetes** Let's say you want to find error logs from a specific Kubernetes pod named `my-app-pod` in the `default` namespace. In the Datadog Log Explorer, you would use the following filters: * `kubernetes.namespace.name:default` * `kubernetes.pod.name:my-app-pod` * `status:error` (or search for keywords like "error", "exception", "failed") This will show you all error logs from that pod. You can then analyze the logs to identify the cause of the errors. **In summary:** 1. **Monitors:** Use the Monitor Management page or Events Explorer in the Datadog UI, or the Events API. 2. **Cluster Logs:** Use the Log Explorer in the Datadog UI, or the Logs API. Filter by source, service, hostname, Kubernetes metadata, and keywords. 3. **Configure the Datadog Agent** correctly to collect the logs you need. 4. **Use Log Processing Rules** to parse and enrich your logs. 5. **Secure your API keys.** 6. **Monitor your log volume** to control costs. I hope this comprehensive guide helps you access monitor and cluster logs from Datadog! Let me know if you have any more specific questions.
Penrose MCP Server
Penroseのドメイン固有言語を用いて、自然言語による数式図の作成を容易にします。数式の型、関係性、および視覚的表現のルールを定義できます。
Together AI Image Server
Claudeやその他のMCP互換アシスタントが、Together AIの画像生成モデルを使用して、テキストプロンプトから画像を生成できるようにするMCPサーバー。
OKX MCP Server
OKX取引所からの暗号通貨価格データを、モデルコンテキストプロトコルインターフェースを通じてリアルタイムで提供します。これにより、あらゆる取引銘柄の過去のローソク足データと現在の市場価格にアクセスできます。
Twitch MCP Server
Twitch APIとの連携を可能にし、チャンネル、ストリーム、ゲームなどに関する包括的な情報を取得できます。さらに、検索や、エモートやバッジなどのチャット要素へのアクセスもサポートしています。
Microsoft SQL Server MCP Server
AIアシスタントが、制御されたインターフェースを通じて、テーブルの一覧表示、データの読み取り、SQLクエリの実行を可能にする、Microsoft SQL Serverデータベースとの安全なインタラクションを実現するモデルコンテキストプロトコルサーバー。
Bybit MCP Server
Bybitの暗号通貨取引所のAPIへの読み取り専用アクセスを提供するModel Context Protocolサーバー。ユーザーは自然言語を使用してリアルタイムの暗号通貨データを照会できます。
MCP Create Server
Model Context Protocol (MCP) サーバーを作成および管理する動的なサービス。ユーザーは、複数の MCP サーバーを子プロセスとして生成、カスタマイズ、および制御できます。
Notion MCP Server
Notion APIとのやり取りを標準化するインターフェースを提供する、モデルコンテキストプロトコルサーバー。ユーザーはデータベースの一覧表示、ページの作成、Notionワークスペース全体の検索などが可能になります。
findata-mcp-server
これは、Alpha Vantage APIへのアクセスを提供するMCPサーバーです。これにより、株価データの取得が可能になり、LLMのコンテキストとして利用できます。
SwitchBot MCP Server
AIアシスタントがSwitchBot APIを通じてSwitchBotデバイスを制御できるようにし、デバイス管理、シーン実行、センサー情報モニタリングなどの機能を提供します。
MCP Server for National Park Services Data
NPS API を利用して国立公園サービスのデータ取得を容易にし、ユーザーが州ごとに国立公園を一覧表示したり、特定の公園に関する詳細情報にアクセスしたりできるようにします。