Xafari MCP
An MCP server and crawler for Xafari documentation that enables AI agents to search, retrieve pages, and extract code examples from a local index. It provides structured documentation access through stdio or HTTP interfaces for seamless IDE integration.
README
Xafari MCP
MCP-сервер и краулер для документации Xafari. Он скачивает официальные страницы, извлекает чистый текст и примеры кода, строит легковесный индекс и предоставляет инструменты для поиска и объяснений.
Зачем нужен MCP
MCP (Model Context Protocol) позволяет IDE и агентам обращаться к локальным данным
как к «инструментам». Вместо ручного поиска по сайту документации, ассистент
вызывает методы search_docs, get_page и get_examples, а сервер отвечает
структурированными данными. Это ускоряет работу, дает воспроизводимые ответы и
снижает зависимость от внешних источников.
Как MCP ускоряет работу:
- Меньше ручного поиска: вместо переходов по сайту и копипасты — один вызов
search_docs/get_page. - Мгновенная выборка: локальный индекс и кэш дают ответы быстрее, чем браузер + поиск.
- Точнее ответы: инструменты возвращают структуру (заголовки, ссылки, код), а не разрозненный текст.
- Повторяемость: один и тот же запрос даёт одинаковый результат — удобно для командной работы.
- Автодогрузка: если страницы нет в кэше, get_page может скачать её автоматически.
- Офлайн-режим: можно работать без доступа к сайту после первичного краула.
Как работает MCP в этом проекте
- Краулер
- Скачивает HTML, извлекает читабельный markdown и сохраняет в
data/pages. - Кэширует страницы и использует ETag/Last-Modified при повторных запусках.
- Из markdown строится индекс
pages.json+index.jsonдля быстрого поиска.
- Скачивает HTML, извлекает читабельный markdown и сохраняет в
- MCP-сервер читает индекс и отвечает на вызовы инструментов через stdio/http.
- IDE подключается к серверу и использует инструменты прямо в чате.
Быстрый старт
- Запустить краулер и собрать локальный индекс:
npm run crawl
- Запустить MCP-сервер (stdio):
npm run start
- Запустить HTTP-режим (опционально):
npm run start:http
- Пересобрать индекс без краулинга:
npm run reindex
Переменные окружения
DOCS_BASE_URL(по умолчанию:https://documentation.galaktika-soft.com/xafari/)MAX_PAGES_PER_SESSION(по умолчанию:1000)FETCH_ON_MISS(по умолчанию:true)DATA_DIR(по умолчанию:./data)REQUEST_TIMEOUT_MS(по умолчанию:15000)USER_AGENTLOG_FILE(по умолчанию:logs/docs-mcp.jsonl)CODE_LANGUAGES(по умолчанию:cs,js,ts,json,yaml,xml,html,css)HTTP_PORT(по умолчанию:3333)
Примеры кода
- Примеры сохраняются только для языков из
CODE_LANGUAGES. - Языки нормализуются:
c#/csharp→cs,javascript→js,typescript→ts,yml→yaml. - Если язык не разрешен — блок кода не сохраняется.
Fetch on miss
get_page может автоматически догружать страницу, если ее нет в кэше.
Управляется флагом FETCH_ON_MISS (по умолчанию true).
Подключение MCP в IDE на примере Cursor
stdio-режим (локальный запуск)
- Откройте настройки MCP в Cursor.
- Добавьте новый сервер со следующими параметрами:
name:xafari-mcpcommand:nodeargs:["C:\\Projects\\xafari-mcp\\src\\index.js"]cwd:C:\\Projects\\xafari-mcp
Пример ~/.cursor/mcp.json
{
"mcpServers": {
"xafari-mcp": {
"command": "node",
"args": ["C:\\Projects\\xafari-mcp\\src\\index.js"],
"cwd": "C:\\Projects\\xafari-mcp"
}
}
}
stdio-режим (через Docker)
Если сервис запущен в Docker, можно использовать docker exec:
{
"mcpServers": {
"xafari-mcp": {
"command": "docker",
"args": ["exec", "-i", "mcp-service", "node", "/app/src/index.js"]
}
}
}
HTTP-режим (SSE)
Если сервис запущен в HTTP-режиме (например, через docker compose), используйте SSE transport:
{
"mcpServers": {
"xafari-mcp": {
"url": "http://localhost:3333/sse"
}
}
}
Примечание: HTTP-режим требует, чтобы сервис был запущен с npm run start:http или через docker compose (который автоматически запускает HTTP-сервер).
- Перезапустите MCP-сервер в Cursor.
Чтобы проверить в окне чата напишите
list tools
Запросите какую-либо документацию с источника
Запуск через docker compose
git clone https://github.com/QuAzI/xafari-mcp.git
cd xafari-mcp
docker compose up -d
Запуск через npx
Локально в репозитории:
npm installnpx .— запустит MCP-сервер (stdio) черезsrc/index.js.
Чтобы запускать из любого каталога:
npm linknpx --no-install xafari-mcp
Запуск прямо из GitHub (без публикации в npm):
npx github:QuAzI/xafari-mcp
Опции краулера:
npm run crawl— по умолчанию скачивает только новые страницы.npm run crawl -- --force— перекачать все страницы.npm run crawl -- --no-only-new— отключить режим "только новые".
Примечание:
--no-only-newделает полный обход с кешем (ETag/Last-Modified), а--forceперекачивает все без учета кеша.
MCP-инструменты
search_docs(query, limit?)- Ищет по индексу документации и возвращает список результатов с
title,url,excerpt,headings. limitограничивает количество результатов (1–20, по умолчанию 5).
- Ищет по индексу документации и возвращает список результатов с
get_page(slug | url)- Возвращает полный контент страницы (markdown-текст, headings, codeBlocks, links, breadcrumbs).
slug— короткая форма (например,doc_recursive_helper).url— полный адрес страницы документации.
get_examples(topic, limit?)- Ищет страницы по теме и извлекает фрагменты кода.
- Делает search_docs(topic, limit) по индексу.
- Берёт первые подходящие страницы и вытаскивает их codeBlocks.
- Возвращает список примеров с slug, title, url, code.
limitограничивает количество примеров (1–20, по умолчанию 5).
- Ищет страницы по теме и извлекает фрагменты кода.
explain_concept(name)- Возвращает краткое описание концепта и ссылку на наиболее релевантную страницу.
- Делает search_docs(name, 3).
- Берёт самый релевантный результат и возвращает:
- summary — это excerpt из результата,
- page — основная ссылка,
- related — оставшиеся 1–2 страницы.
- В
relatedдобавляет похожие разделы документации.
- Возвращает краткое описание концепта и ссылку на наиболее релевантную страницу.
stdio-режим
stdio — MCP-сервер общается с IDE через стандартные потоки ввода/вывода. Это нативный режим MCP: быстрее, проще в настройке, без сети и портов. Подходит для локального использования.
Транспорт и формат обмена:
- Общение по stdin/stdout.
- Формат: JSON-RPC 2.0, построчно или через Content-Length.
- Построчно — каждое сообщение это одна JSON-строка, разделенная \n. Сервер читает строки и парсит каждую как отдельный JSON-RPC запрос.
- Через Content-Length — перед сообщением идут заголовки (как в LSP). Сервер сначала читает длину, потом ровно столько байт JSON-тела.
Использовать можно не только из IDE, но и как локальную сервис-утилиту:
- CLI/скрипты: можно запускать сервер и слать ему JSON-RPC из скриптов (например, на CI или для массового прогрева кэша).
- Мост/прокси: stdio удобнее как backend для собственного HTTP-прокси — он проще, чем держать внутри сервера HTTP-слой.
- Интеграции: другой агент/процесс может общаться с MCP через pipe/stdin-stdout, без открытого порта.
- Безопасность: нет открытых портов, меньше требований к сетевой конфигурации.
Примеры stdio-запросов
{
"jsonrpc": "2.0",
"id": 1,
"method": "tools/call",
"params": {
"name": "search_docs",
"arguments": {
"query": "Performance Enhancement"
}
}
}
HTTP-режим
http — режим, в котором MCP-сервер поднимает HTTP-endpoint и принимает запросы по сети. Удобно для внешних клиентов и инструментов (например, HTTPYac), но требует поднять отдельный процесс и порт.
- Сервер поднимается командой
npm run start:http(портHTTP_PORT, по умолчанию3333). - Каждый инструмент доступен через
POST /tools/{toolName}с JSON-телом аргументов. - Для проверки доступен
GET /health.
Примеры HTTP-запросов
Подходят для инструментов типа HTTPYac, плагинов HTTP Request в IDE.
POST http://localhost:3333/tools/search_docs
Content-Type: application/json
{
"query": "Как работает модуль Performance Enhancement?",
"limit": 5
}
POST http://localhost:3333/tools/search_docs
Content-Type: application/json
{
"query": "подключение к DevExpress XAF",
"limit": 5
}
POST http://localhost:3333/tools/get_page
Content-Type: application/json
{
"slug": "doc_recursive_helper"
}
POST http://localhost:3333/tools/get_page
Content-Type: application/json
{
"url": "https://documentation.galaktika-soft.com/xafari/doc_recursive_helper"
}
POST http://localhost:3333/tools/get_examples
Content-Type: application/json
{
"topic": "Business Components",
"limit": 5
}
POST http://localhost:3333/tools/explain_concept
Content-Type: application/json
{
"name": "Security System"
}
Формат хранения
- Сырые страницы сохраняются в
data/pages/*.mdс метаданными в заголовке. pages.jsonформируется из markdown-файлов после завершения краулинга.- При сохранении учитываются breadcrumbs: страницы попадают в поддиректории по темам.
- Ассеты (PDF/картинки) сохраняются в
data/assets, ссылки в markdown остаются абсолютными.
Ручное пополнение документации
- Создайте
.mdвdata/pages(подкаталоги = breadcrumbs). - Добавьте YAML-front-matter с минимумом полей:
--- slug: my_custom_doc url: https://example.local/my_custom_doc title: Мой документ breadcrumbs: - Custom - Docs --- - Добавьте тело документа ниже фронт-маттера.
- Пересоберите индекс без краулинга:
npm run reindex
Логи
Структурированные логи пишутся в data/logs/xafari-mcp.jsonl (JSON Lines).
Recommended Servers
playwright-mcp
A Model Context Protocol server that enables LLMs to interact with web pages through structured accessibility snapshots without requiring vision models or screenshots.
Magic Component Platform (MCP)
An AI-powered tool that generates modern UI components from natural language descriptions, integrating with popular IDEs to streamline UI development workflow.
Audiense Insights MCP Server
Enables interaction with Audiense Insights accounts via the Model Context Protocol, facilitating the extraction and analysis of marketing insights and audience data including demographics, behavior, and influencer engagement.
VeyraX MCP
Single MCP tool to connect all your favorite tools: Gmail, Calendar and 40 more.
graphlit-mcp-server
The Model Context Protocol (MCP) Server enables integration between MCP clients and the Graphlit service. Ingest anything from Slack to Gmail to podcast feeds, in addition to web crawling, into a Graphlit project - and then retrieve relevant contents from the MCP client.
Kagi MCP Server
An MCP server that integrates Kagi search capabilities with Claude AI, enabling Claude to perform real-time web searches when answering questions that require up-to-date information.
E2B
Using MCP to run code via e2b.
Neon Database
MCP server for interacting with Neon Management API and databases
Exa Search
A Model Context Protocol (MCP) server lets AI assistants like Claude use the Exa AI Search API for web searches. This setup allows AI models to get real-time web information in a safe and controlled way.
Qdrant Server
This repository is an example of how to create a MCP server for Qdrant, a vector search engine.