Discover Awesome MCP Servers
Extend your agent with 19,640 capabilities via MCP servers.
- All19,640
- Developer Tools3,867
- Search1,714
- Research & Data1,557
- AI Integration Systems229
- Cloud Platforms219
- Data & App Analysis181
- Database Interaction177
- Remote Shell Execution165
- Browser Automation147
- Databases145
- Communication137
- AI Content Generation127
- OS Automation120
- Programming Docs Access109
- Content Fetching108
- Note Taking97
- File Systems96
- Version Control93
- Finance91
- Knowledge & Memory90
- Monitoring79
- Security71
- Image & Video Processing69
- Digital Note Management66
- AI Memory Systems62
- Advanced AI Reasoning59
- Git Management Tools58
- Cloud Storage51
- Entertainment & Media43
- Virtualization42
- Location Services35
- Web Automation & Stealth32
- Media Content Processing32
- Calendar Management26
- Ecommerce & Retail18
- Speech Processing18
- Customer Data Platforms16
- Travel & Transportation14
- Education & Learning Tools13
- Home Automation & IoT13
- Web Search Integration12
- Health & Wellness10
- Customer Support10
- Marketing9
- Games & Gamification8
- Google Cloud Integrations7
- Art & Culture4
- Language Translation3
- Legal & Compliance2
Time-MCP
An agentic AI system that answers time-related questions by calling a time API tool and general questions using an LLM, accessible through a simple chat interface.
OKX-DEX-SDK MCP SSE Server
An SSE (Server-Sent Events) server that leverages OKX DEX SDK to support DEX trading operations on Solana blockchain and cross-chain bridge transactions.
Expo MCP Server
A Model Context Protocol server that provides development and debugging tools for Expo-based React Native applications, enabling developers to manage Expo servers, capture logs, and manipulate project files.
HubSpot MCP Server
Provides comprehensive access to HubSpot's CRM API, enabling management of contacts, companies, deals, engagements, and associations with support for batch operations and advanced search capabilities.
Logseq Tools
That translates to: **Server MCP untuk grafik Logseq** This essentially means "MCP server for Logseq graph".
StockMCP
Provides real-time stock market data and financial analysis through Yahoo Finance integration. Enables users to get quotes, historical prices, fundamentals, dividends, analyst forecasts, and growth projections for any stock symbol.
Todo MCP Server
Enables Claude to manage todo lists with full CRUD operations including creating, listing, toggling completion status, deleting, and searching todos. Uses SQLite database with Prisma ORM for reliable data persistence and includes optional due date functionality.
GitHub MCP Server
Server MCP mandiri untuk GitHub API
Taiwan Government Open Data MCP Server
Enables searching and querying Taiwan government open datasets from data.gov.tw using AI-powered search through Cloudflare Workers.
Keywords Everywhere MCP Server
A Model Context Protocol server that provides access to the Keywords Everywhere API, enabling AI assistants to perform SEO research including keyword analysis, domain traffic metrics, and backlink data.
TypeScript Analyzer MCP Server - Enterprise Edition
Analisis dan perbaiki kesalahan ketik apa pun di TypeScript dengan server MCP cerdas – cepat, dapat diperluas, dan sadar React.
Weather MCP Server
Provides real-time weather information for any city worldwide using the Open-Meteo API, returning current temperature, wind speed, and geographic coordinates through a containerized MCP server.
IBM Informix MCP Server by CData
IBM Informix MCP Server by CData
Salesforce MCP Server
Enables natural language interactions with Salesforce data and metadata, supporting queries, data manipulation, custom object/field management, Apex code operations, and debug logging across multiple authentication methods.
Excel Chart MCP Server
A dual-mode intelligent Excel processing server that provides Excel data analysis tools for Cursor AI in MCP mode and offers a standalone web interface with support for external AI configurations like DeepSeek.
Secure Command Executor MCP Server
Layanan eksekusi perintah yang kuat dengan rotasi log harian, dirancang untuk mengelola dan mengeksekusi perintah sistem secara aman dengan pemeriksaan keamanan dan pencatatan.
Chargebee MCP Server
A server that integrates with AI-powered code editors to provide immediate answers about Chargebee products and API services, offering context-aware code snippets and access to Chargebee's knowledge base.
Remote MCP Server on Cloudflare
IRIS ObjectScript MCP Server
Provides access to InterSystems IRIS ObjectScript documentation, examples, and intelligent search tools. Enables developers to query documentation, search class references, and access official IRIS resources through natural language.
Petstore MCP Server
A comprehensive Model Context Protocol implementation for the Swagger Petstore API that provides 19 tools across pet management, store operations, and user management categories.
hello-mcp-server-current-time
Tentu, berikut adalah contoh sederhana server MCP (Model Catalog Provider) kustom berdasarkan `spring-ai-starter-mcp-server` yang mendapatkan waktu saat ini, diterjemahkan ke dalam bahasa Indonesia: **Contoh Sederhana Server MCP Kustom Berbasis `spring-ai-starter-mcp-server` untuk Mendapatkan Waktu Saat Ini** Contoh ini mengasumsikan Anda sudah memiliki proyek Spring Boot yang menggunakan `spring-ai-starter-mcp-server`. Jika belum, Anda perlu membuatnya dan menambahkan dependensi yang diperlukan. **1. Buat Kelas ModelInfoProvider Kustom** Buat kelas yang mengimplementasikan `ModelInfoProvider`. Kelas ini akan bertanggung jawab untuk menyediakan informasi tentang model Anda (dalam hal ini, model "waktu saat ini"). ```java package com.example.mcp; import org.springframework.ai.model.ModelInfo; import org.springframework.ai.model.ModelInfoProvider; import org.springframework.stereotype.Component; import java.time.LocalDateTime; import java.time.format.DateTimeFormatter; import java.util.List; import java.util.Map; @Component public class CurrentTimeModelInfoProvider implements ModelInfoProvider { private static final String MODEL_NAME = "current-time-model"; @Override public List<ModelInfo> getModelInfo() { return List.of( ModelInfo.builder() .withId(MODEL_NAME) .withName("Model Waktu Saat Ini") .withDescription("Model sederhana yang mengembalikan waktu saat ini.") .withCapabilities(Map.of("textGeneration", true)) // Sesuaikan dengan kemampuan model Anda .build() ); } @Override public String generate(String prompt) { // Abaikan prompt, selalu kembalikan waktu saat ini LocalDateTime now = LocalDateTime.now(); DateTimeFormatter formatter = DateTimeFormatter.ofPattern("yyyy-MM-dd HH:mm:ss"); return "Waktu saat ini adalah: " + now.format(formatter); } @Override public ModelInfo getModelInfo(String modelId) { if (MODEL_NAME.equals(modelId)) { return ModelInfo.builder() .withId(MODEL_NAME) .withName("Model Waktu Saat Ini") .withDescription("Model sederhana yang mengembalikan waktu saat ini.") .withCapabilities(Map.of("textGeneration", true)) // Sesuaikan dengan kemampuan model Anda .build(); } return null; // Atau lempar pengecualian jika model tidak ditemukan } } ``` **Penjelasan:** * **`@Component`**: Anotasi ini membuat kelas ini sebagai komponen Spring, sehingga dapat di-autowire ke tempat lain. * **`MODEL_NAME`**: Konstanta untuk nama model. * **`getModelInfo()`**: Mengembalikan daftar `ModelInfo`. Dalam contoh ini, hanya ada satu model: "current-time-model". `ModelInfo` berisi metadata tentang model, seperti ID, nama, deskripsi, dan kemampuan. * **`generate(String prompt)`**: Metode ini adalah inti dari model. Dalam contoh ini, *prompt* diabaikan. Metode ini selalu mengembalikan string yang berisi waktu saat ini yang diformat. * **`getModelInfo(String modelId)`**: Mengembalikan `ModelInfo` untuk `modelId` yang diberikan. **2. Konfigurasi (opsional)** Anda mungkin perlu mengkonfigurasi properti di `application.properties` atau `application.yml` untuk mengaktifkan dan mengkonfigurasi server MCP. Pastikan `spring.ai.mcp.enabled` diatur ke `true`. ```properties spring.ai.mcp.enabled=true spring.ai.mcp.path=/models ``` **Penjelasan Konfigurasi:** * **`spring.ai.mcp.enabled=true`**: Mengaktifkan server MCP. * **`spring.ai.mcp.path=/models`**: Menentukan jalur (endpoint) tempat server MCP akan tersedia. Dalam contoh ini, server akan tersedia di `/models`. **3. Jalankan Aplikasi Spring Boot Anda** Jalankan aplikasi Spring Boot Anda. Server MCP akan dimulai secara otomatis. **4. Uji Server MCP** Anda dapat menguji server MCP dengan mengirimkan permintaan HTTP ke endpoint `/models/{modelId}/generate`. Misalnya, menggunakan `curl`: ```bash curl -X POST -H "Content-Type: application/json" -d '{"prompt": "Apa waktu saat ini?"}' http://localhost:8080/models/current-time-model/generate ``` (Asumsikan aplikasi Anda berjalan di port 8080). **Output yang Diharapkan:** Respons dari server akan berupa string JSON yang berisi waktu saat ini: ```json { "result": "Waktu saat ini adalah: 2023-10-27 10:30:00" // Contoh waktu } ``` **Poin Penting:** * **Penanganan Kesalahan:** Contoh ini sangat sederhana dan tidak menangani kesalahan. Dalam aplikasi produksi, Anda harus menambahkan penanganan kesalahan yang tepat. * **Keamanan:** Pastikan untuk mengamankan server MCP Anda, terutama jika server tersebut diekspos ke jaringan publik. * **Konfigurasi:** Sesuaikan konfigurasi (seperti jalur MCP) sesuai dengan kebutuhan Anda. * **Kemampuan Model:** `ModelInfo` berisi informasi tentang kemampuan model. Sesuaikan `capabilities` dengan kemampuan sebenarnya dari model Anda. * **Prompt:** Meskipun contoh ini mengabaikan prompt, dalam model yang lebih kompleks, Anda akan menggunakan prompt untuk menghasilkan respons yang berbeda. Contoh ini memberikan dasar untuk membuat server MCP kustom. Anda dapat memperluasnya untuk menyediakan informasi tentang model yang lebih kompleks dan mengimplementasikan logika generasi yang lebih canggih. Pastikan untuk membaca dokumentasi `spring-ai-starter-mcp-server` untuk informasi lebih lanjut.
Maven Dependencies Server
Sebuah server MCP (Model Context Protocol) yang menyediakan alat untuk memeriksa versi dependensi Maven. Server ini memungkinkan LLM untuk memverifikasi dependensi Maven dan mengambil versi terbaru mereka dari Maven Central Repository.
Repology MCP Server
Enables users to search and retrieve package repository information from Repology through natural language. Supports searching projects, getting detailed package information, and checking repository problems across multiple Linux distributions and package managers.
FoundryMCP
MCP Server for AI Agents accessing Palantir Foundry
Dangerous MCP
Server demonstrasi yang mengungkap risiko keamanan dengan mengakses variabel lingkungan sensitif, mengilustrasikan bagaimana alat MCP berpotensi membocorkan data pengguna tanpa persetujuan eksplisit.
Remote MCP Server Authless
A serverless solution for deploying Model Context Protocol (MCP) servers on Cloudflare Workers without authentication requirements, enabling developers to create and access custom AI tools through the MCP standard.
aica - AI Code Analyzer
aica (AI Code Analyzer) meninjau kode Anda menggunakan AI. Mendukung CLI dan GitHub Actions.
react-analyzer-mcp
* Analisis proyek React Anda secara lokal * Output yang konsisten dengan parsing AST + AI * Buat dokumen markdown, llm.txt untuk kode React Anda sekaligus
JIRA MCP Server
JIRA MCP Server: Integrasi API Penting untuk Manajer Program Teknis
example-mcp-server
Okay, I will provide you with an example code structure for an Anthropic MCP (Model Control Plane) server. Keep in mind that this is a *conceptual* example and would need significant fleshing out to be production-ready. It focuses on the core ideas of receiving requests, interacting with Anthropic's API, and managing model access. **Important Considerations:** * **Security:** This example omits crucial security measures like authentication, authorization, and input validation. A real-world MCP *must* prioritize security. * **Error Handling:** Error handling is simplified for clarity. Robust error handling, logging, and monitoring are essential in production. * **Rate Limiting:** Anthropic's API has rate limits. Your MCP needs to implement rate limiting to avoid being throttled. * **Scalability:** This is a basic example. For high-volume usage, you'd need to consider scaling strategies (e.g., load balancing, caching). * **Configuration:** API keys, model settings, and other parameters should be configurable (e.g., using environment variables or a configuration file). * **Asynchronous Operations:** For better performance, especially with potentially long-running model requests, consider using asynchronous operations (e.g., `asyncio` in Python). * **Anthropic API Client:** This example assumes you're using the official Anthropic Python client library (`anthropic`). Install it with `pip install anthropic`. **Python Example (using Flask):** ```python from flask import Flask, request, jsonify import anthropic import os app = Flask(__name__) # Replace with your actual Anthropic API key (ideally, load from environment variable) ANTHROPIC_API_KEY = os.environ.get("ANTHROPIC_API_KEY") if not ANTHROPIC_API_KEY: raise ValueError("Anthropic API key not found in environment variables.") client = anthropic.Anthropic(api_key=ANTHROPIC_API_KEY) @app.route('/generate', methods=['POST']) def generate_text(): """ Endpoint to generate text using Anthropic's models. Expects a JSON payload with 'prompt' and optional 'model' parameters. """ try: data = request.get_json() prompt = data.get('prompt') model = data.get('model', "claude-v1.3") # Default model if not prompt: return jsonify({'error': 'Prompt is required'}), 400 # Call Anthropic API try: response = client.completions.create( model=model, prompt=f"{anthropic.HUMAN_PROMPT} {prompt}{anthropic.AI_PROMPT}", max_tokens_to_sample=200, # Adjust as needed ) generated_text = response.completion return jsonify({'generated_text': generated_text}) except anthropic.APIError as e: print(f"Anthropic API Error: {e}") return jsonify({'error': f'Anthropic API Error: {e}'}), 500 # Or a more specific error code except Exception as e: print(f"Error processing request: {e}") return jsonify({'error': f'Internal Server Error: {e}'}), 500 if __name__ == '__main__': app.run(debug=True, host='0.0.0.0', port=5000) ``` **Explanation:** 1. **Imports:** Imports necessary libraries (Flask for the web server, `anthropic` for the Anthropic API client, and `os` for environment variables). 2. **API Key:** Retrieves the Anthropic API key from an environment variable. *Never* hardcode API keys directly in your code. 3. **Flask App:** Creates a Flask web application. 4. **`/generate` Endpoint:** * Handles `POST` requests to the `/generate` endpoint. * **Request Parsing:** Extracts the `prompt` and optional `model` from the JSON request body. * **Input Validation:** Checks if the `prompt` is provided. * **Anthropic API Call:** * Uses the `anthropic.Anthropic` client to call the `completions.create` method. * **Prompt Formatting:** Crucially, it formats the prompt using `anthropic.HUMAN_PROMPT` and `anthropic.AI_PROMPT`. This is *essential* for Anthropic's models to understand the context. * Sets `max_tokens_to_sample` to limit the length of the generated text. Adjust this value based on your needs. * **Response:** Returns the generated text in a JSON response. * **Error Handling:** Includes basic `try...except` blocks to catch potential errors (e.g., API errors, JSON parsing errors). 5. **Running the App:** Starts the Flask development server. **How to Run:** 1. **Install Dependencies:** ```bash pip install flask anthropic ``` 2. **Set API Key:** ```bash export ANTHROPIC_API_KEY="YOUR_ANTHROPIC_API_KEY" ``` (Replace `"YOUR_ANTHROPIC_API_KEY"` with your actual API key.) 3. **Run the Script:** ```bash python your_script_name.py ``` 4. **Send a Request:** Use `curl`, `Postman`, or a similar tool to send a `POST` request to `http://localhost:5000/generate` with a JSON payload like this: ```json { "prompt": "Write a short story about a cat who goes on an adventure." } ``` **Indonesian Translation of Explanation:** Oke, saya akan memberikan contoh struktur kode untuk server Anthropic MCP (Model Control Plane). Perlu diingat bahwa ini adalah contoh *konseptual* dan perlu pengembangan lebih lanjut agar siap untuk produksi. Ini berfokus pada ide-ide inti menerima permintaan, berinteraksi dengan API Anthropic, dan mengelola akses model. **Pertimbangan Penting:** * **Keamanan:** Contoh ini menghilangkan langkah-langkah keamanan penting seperti otentikasi, otorisasi, dan validasi input. MCP dunia nyata *harus* memprioritaskan keamanan. * **Penanganan Kesalahan:** Penanganan kesalahan disederhanakan untuk kejelasan. Penanganan kesalahan, pencatatan log, dan pemantauan yang kuat sangat penting dalam produksi. * **Pembatasan Tingkat (Rate Limiting):** API Anthropic memiliki batasan tingkat. MCP Anda perlu menerapkan pembatasan tingkat untuk menghindari pembatasan. * **Skalabilitas:** Ini adalah contoh dasar. Untuk penggunaan volume tinggi, Anda perlu mempertimbangkan strategi penskalaan (misalnya, penyeimbangan beban, caching). * **Konfigurasi:** Kunci API, pengaturan model, dan parameter lainnya harus dapat dikonfigurasi (misalnya, menggunakan variabel lingkungan atau file konfigurasi). * **Operasi Asinkron:** Untuk kinerja yang lebih baik, terutama dengan permintaan model yang berpotensi berjalan lama, pertimbangkan untuk menggunakan operasi asinkron (misalnya, `asyncio` di Python). * **Klien API Anthropic:** Contoh ini mengasumsikan Anda menggunakan pustaka klien Python Anthropic resmi (`anthropic`). Instal dengan `pip install anthropic`. **Contoh Python (menggunakan Flask):** ```python from flask import Flask, request, jsonify import anthropic import os app = Flask(__name__) # Ganti dengan kunci API Anthropic Anda yang sebenarnya (idealnya, muat dari variabel lingkungan) ANTHROPIC_API_KEY = os.environ.get("ANTHROPIC_API_KEY") if not ANTHROPIC_API_KEY: raise ValueError("Kunci API Anthropic tidak ditemukan di variabel lingkungan.") client = anthropic.Anthropic(api_key=ANTHROPIC_API_KEY) @app.route('/generate', methods=['POST']) def generate_text(): """ Endpoint untuk menghasilkan teks menggunakan model Anthropic. Mengharapkan payload JSON dengan parameter 'prompt' dan opsional 'model'. """ try: data = request.get_json() prompt = data.get('prompt') model = data.get('model', "claude-v1.3") # Model default if not prompt: return jsonify({'error': 'Prompt diperlukan'}), 400 # Panggil API Anthropic try: response = client.completions.create( model=model, prompt=f"{anthropic.HUMAN_PROMPT} {prompt}{anthropic.AI_PROMPT}", max_tokens_to_sample=200, # Sesuaikan sesuai kebutuhan ) generated_text = response.completion return jsonify({'generated_text': generated_text}) except anthropic.APIError as e: print(f"Kesalahan API Anthropic: {e}") return jsonify({'error': f'Kesalahan API Anthropic: {e}'}), 500 # Atau kode kesalahan yang lebih spesifik except Exception as e: print(f"Kesalahan memproses permintaan: {e}") return jsonify({'error': f'Kesalahan Server Internal: {e}'}), 500 if __name__ == '__main__': app.run(debug=True, host='0.0.0.0', port=5000) ``` **Penjelasan:** 1. **Impor:** Mengimpor pustaka yang diperlukan (Flask untuk server web, `anthropic` untuk klien API Anthropic, dan `os` untuk variabel lingkungan). 2. **Kunci API:** Mengambil kunci API Anthropic dari variabel lingkungan. *Jangan pernah* menyimpan kunci API secara langsung dalam kode Anda. 3. **Aplikasi Flask:** Membuat aplikasi web Flask. 4. **Endpoint `/generate`:** * Menangani permintaan `POST` ke endpoint `/generate`. * **Penguraian Permintaan:** Mengekstrak `prompt` dan `model` opsional dari badan permintaan JSON. * **Validasi Input:** Memeriksa apakah `prompt` disediakan. * **Panggilan API Anthropic:** * Menggunakan klien `anthropic.Anthropic` untuk memanggil metode `completions.create`. * **Pemformatan Prompt:** Yang terpenting, ia memformat prompt menggunakan `anthropic.HUMAN_PROMPT` dan `anthropic.AI_PROMPT`. Ini *penting* agar model Anthropic memahami konteksnya. * Menetapkan `max_tokens_to_sample` untuk membatasi panjang teks yang dihasilkan. Sesuaikan nilai ini berdasarkan kebutuhan Anda. * **Respons:** Mengembalikan teks yang dihasilkan dalam respons JSON. * **Penanganan Kesalahan:** Menyertakan blok `try...except` dasar untuk menangkap potensi kesalahan (misalnya, kesalahan API, kesalahan penguraian JSON). 5. **Menjalankan Aplikasi:** Memulai server pengembangan Flask. **Cara Menjalankan:** 1. **Instal Dependensi:** ```bash pip install flask anthropic ``` 2. **Setel Kunci API:** ```bash export ANTHROPIC_API_KEY="KUNCI_API_ANTHROPIC_ANDA" ``` (Ganti `"KUNCI_API_ANTHROPIC_ANDA"` dengan kunci API Anda yang sebenarnya.) 3. **Jalankan Skrip:** ```bash python nama_skrip_anda.py ``` 4. **Kirim Permintaan:** Gunakan `curl`, `Postman`, atau alat serupa untuk mengirim permintaan `POST` ke `http://localhost:5000/generate` dengan payload JSON seperti ini: ```json { "prompt": "Tulis cerita pendek tentang seekor kucing yang melakukan petualangan." } ``` This provides a basic, functional example. Remember to adapt and expand upon it to meet the specific requirements of your application and to incorporate best practices for security, error handling, and scalability. Good luck!