KFabric

KFabric

KFabric is a platform for building traceable and weighted documentary corpora from heterogeneous sources, prioritizing data quality before RAG implementation. It provides tools for document discovery, scoring, and fragment synthesis via an MCP server to prepare high-quality indexable artifacts.

Category
Visit Server

README

KFabric

CI

KFabric est une plateforme Python-first de fabrication de corpus documentaires. Le projet vise un problème très concret : aider à construire un corpus traçable, pondéré et réutilisable à partir de sources hétérogènes, avant même de brancher un assistant RAG conversationnel.

Au lieu de passer directement du web au chat, KFabric se concentre d'abord sur la qualité du matériau documentaire :

  • découverte de documents candidats
  • collecte et normalisation
  • scoring et décision documentaire
  • récupération de fragments utiles dans des documents rejetés
  • consolidation et synthèse
  • préparation d'artefacts indexables pour des usages RAG futurs

Pourquoi KFabric

Dans beaucoup de pipelines RAG, la vraie faiblesse n'est pas le modèle mais le corpus. KFabric part de l'idée inverse :

  • un bon corpus vaut mieux qu'une mauvaise conversation bien emballée
  • les documents faibles contiennent parfois des signaux utiles à sauver
  • la traçabilité et la prudence documentaire doivent exister dès le MVP
  • un serveur MCP et une API REST doivent exposer exactement le même coeur métier

Ce que fait le MVP

Le MVP actuel couvre déjà un flux bout en bout :

  1. créer une requête documentaire
  2. découvrir des documents candidats
  3. collecter et parser un document
  4. attribuer un score global et des sous-scores
  5. accepter, rejeter, ou rejeter avec récupération partielle
  6. consolider les fragments sauvés
  7. générer une synthèse documentaire prudente
  8. construire un corpus final
  9. préparer un artefact d'indexation

Points forts

  • API REST FastAPI pour piloter le pipeline corpus
  • serveur MCP natif en Python
  • workers Celery pour les traitements longs
  • UI légère en Jinja2, HTMX et Alpine.js
  • modèles SQLAlchemy 2 et migration Alembic initiale
  • mode sécurisé activé par défaut
  • approche corpus-first avant chat RAG complet

Architecture

Le projet est structuré comme un monolithe modulaire Python :

Stack technique

  • Python 3.12
  • FastAPI
  • Pydantic v2
  • SQLAlchemy 2 + Alembic
  • Celery + Redis + RabbitMQ
  • PostgreSQL prêt pour la production
  • MCP Python SDK
  • Jinja2 + HTMX + Alpine.js

Démarrage rapide

Installation minimale :

python3.12 -m venv .venv
source .venv/bin/activate
pip install setuptools wheel
pip install -e ".[dev]" --no-build-isolation
cp .env.example .env
uvicorn kfabric.api.app:app --reload

Si tu veux aussi les dépendances plus lourdes liées aux connecteurs et à la préparation RAG étendue :

pip install -e ".[dev,extended]" --no-build-isolation

L'application démarre ensuite sur :

  • UI : http://127.0.0.1:8000/
  • API : http://127.0.0.1:8000/docs

Commandes utiles via Makefile :

make install-extended
make test
make run-api

Exploitation V1

KFabric dispose maintenant d'un mode d'exploitation local plus stable :

  • docker-compose.yml avec migrations, healthchecks et volume de stockage
  • Makefile pour les commandes courantes
  • readiness détaillée sur /api/v1/readiness

Le runbook dédié est disponible dans docs/v1-runbook.md.

Sécurité et accès

KFabric peut fonctionner sans authentification en local, mais dès qu'une clé API est configurée via KFABRIC_API_KEY, l'accès est protégé :

  • l'API REST accepte X-API-Key ou Authorization: Bearer ...
  • l'interface web demande une session via /auth
  • les réponses exposent un trace_id et des headers de sécurité

Exemple :

export KFABRIC_API_KEY="change-me"
curl -H "Authorization: Bearer change-me" http://127.0.0.1:8000/api/v1/version

Démo produit

Deux scénarios de démonstration reproductibles sont fournis dans docs/demo-scenarios.md.

Génération rapide :

export KFABRIC_DATABASE_URL="sqlite:////tmp/kfabric-demo.db"
export KFABRIC_STORAGE_PATH="/tmp/kfabric-demo-storage"
./.venv/bin/python scripts/generate_demo_scenarios.py \
  --base-url "http://127.0.0.1:8010" \
  --output /tmp/kfabric-demo-manifest.json

Les captures de démonstration peuvent ensuite être générées depuis l’UI locale, et les corpus sont exportables en HTML et en Markdown.

Aperçu visuel

Page d'accueil avec les requêtes récentes :

Accueil KFabric

Workflow corpus-first sur le scénario "savon Europe" :

Tableau de bord KFabric - savon Europe

Export HTML prêt pour une démo ou une revue documentaire :

Export corpus KFabric - savon Europe

La galerie complète des scénarios validés est disponible dans docs/demo-scenarios.md.

Vérification locale

Les tests principaux peuvent être lancés avec :

pytest

Le dépôt exécute aussi une CI GitHub Actions sur push et pull_request via ci.yml.

Le MVP a été vérifié localement avec :

  • compilation Python
  • tests API
  • tests REST/MCP
  • tests de scoring et de récupération de fragments

API et MCP

KFabric expose deux surfaces complémentaires :

  • une API REST métier pour piloter tout le pipeline
  • une API REST concordante MCP
  • un serveur MCP natif en Python pour les tools, resources et prompts

Exemples de capacités exposées :

  • discover_documents
  • list_candidates
  • analyze_document
  • accept_document
  • reject_document
  • generate_fragment_synthesis
  • get_corpus_status

Statut du projet

KFabric est aujourd'hui un MVP technique fonctionnel.

Ce qui existe :

  • coeur métier corpus-first
  • contrat REST principal
  • socle MCP
  • UI workflow
  • migration initiale
  • tests de base

Ce qui viendra ensuite :

  • vrais connecteurs documentaires
  • meilleure collecte multi-format
  • embeddings réels et intégration vectorielle étendue
  • scoring plus fin par domaine
  • multi-tenant
  • interface de production plus avancée

Développement avec assistance IA

Ce projet a été conçu et développé avec assistance IA, puis structuré, contrôlé, vérifié et arbitré manuellement.

L'IA a servi d'accélérateur pour :

  • le prototypage
  • l'implémentation initiale
  • la documentation
  • certaines itérations techniques

Les choix d'architecture, la validation du flux MVP et la cohérence produit ont été assumés et consolidés manuellement.

Licence

Licence non encore définie.

Recommended Servers

playwright-mcp

playwright-mcp

A Model Context Protocol server that enables LLMs to interact with web pages through structured accessibility snapshots without requiring vision models or screenshots.

Official
Featured
TypeScript
Magic Component Platform (MCP)

Magic Component Platform (MCP)

An AI-powered tool that generates modern UI components from natural language descriptions, integrating with popular IDEs to streamline UI development workflow.

Official
Featured
Local
TypeScript
Audiense Insights MCP Server

Audiense Insights MCP Server

Enables interaction with Audiense Insights accounts via the Model Context Protocol, facilitating the extraction and analysis of marketing insights and audience data including demographics, behavior, and influencer engagement.

Official
Featured
Local
TypeScript
VeyraX MCP

VeyraX MCP

Single MCP tool to connect all your favorite tools: Gmail, Calendar and 40 more.

Official
Featured
Local
graphlit-mcp-server

graphlit-mcp-server

The Model Context Protocol (MCP) Server enables integration between MCP clients and the Graphlit service. Ingest anything from Slack to Gmail to podcast feeds, in addition to web crawling, into a Graphlit project - and then retrieve relevant contents from the MCP client.

Official
Featured
TypeScript
Kagi MCP Server

Kagi MCP Server

An MCP server that integrates Kagi search capabilities with Claude AI, enabling Claude to perform real-time web searches when answering questions that require up-to-date information.

Official
Featured
Python
E2B

E2B

Using MCP to run code via e2b.

Official
Featured
Neon Database

Neon Database

MCP server for interacting with Neon Management API and databases

Official
Featured
Exa Search

Exa Search

A Model Context Protocol (MCP) server lets AI assistants like Claude use the Exa AI Search API for web searches. This setup allows AI models to get real-time web information in a safe and controlled way.

Official
Featured
Qdrant Server

Qdrant Server

This repository is an example of how to create a MCP server for Qdrant, a vector search engine.

Official
Featured