Collective Brain MCP Server

Collective Brain MCP Server

Enables teams to create a shared knowledge base where members can store, search, and validate information collectively. Provides semantic search across team memories with granular permissions and collaborative verification features.

Category
Visit Server

README

🧠 Collective Brain MCP Server

Système de mémoire collective pour équipes - Un cerveau partagé qui permet aux équipes de stocker, rechercher et partager leurs connaissances de manière intelligente.

🎯 Concept

Transformez votre équipe en un cerveau collectif où chaque membre peut :

  • Stocker des informations importantes (décisions, solutions, bugs, etc.)
  • Rechercher dans la mémoire collective de l'équipe
  • Partager le contexte instantanément
  • Vérifier et valider les informations

🚀 Fonctionnalités

Outils MCP disponibles :

  1. store_memory - Stocker une mémoire collective

    • Contenu, catégorie, tags, visibilité
    • Détection automatique de l'importance
    • Liens avec des mémoires similaires
  2. search_memories - Recherche sémantique

    • Recherche par similarité de contenu
    • Filtres par catégorie et visibilité
    • Respect des permissions (private/team/public)
  3. get_team_insights - Analytics d'équipe

    • Top catégories et tags
    • Contributeurs les plus actifs
    • Mémoires les plus consultées
  4. verify_memory - Validation collaborative

    • Permettre aux membres de confirmer des infos
    • Augmenter le score de confiance

🏗️ Architecture

┌─────────────────┐    ┌──────────────────┐    ┌─────────────────┐
│   Le Chat A     │    │   Le Chat B      │    │   Le Chat C     │
│   (CEO Alice)   │    │   (CTO Bob)      │    │   (CS Charlie)  │
└─────────┬───────┘    └─────────┬────────┘    └─────────┬───────┘
          │                      │                       │
          └──────────────────────┼───────────────────────┘
                                 │
                    ┌─────────────▼─────────────┐
                    │   Collective Brain MCP    │
                    │   - Store Memories        │
                    │   - Search & Retrieve     │
                    │   - Team Insights         │
                    │   - Verify & Validate     │
                    └─────────────┬─────────────┘
                                  │
                    ┌─────────────▼─────────────┐
                    │      Qdrant Vector DB     │
                    │   - Semantic Search       │
                    │   - Embeddings Storage    │
                    │   - Workspace Isolation   │
                    └───────────────────────────┘

🛠️ Installation

  1. Installer les dépendances :
uv sync
  1. Déploiement automatique : Le serveur se déploie automatiquement à chaque commit sur la branche main.

  2. Configuration des clés API : Configurez vos clés API directement sur la plateforme de déploiement :

  • QDRANT_URL - URL de votre cluster Qdrant
  • QDRANT_API_KEY - Clé API Qdrant
  • MISTRAL_API_KEY - Clé API Mistral
  • DEFAULT_WORKSPACE - Workspace par défaut

🎬 Démonstration

Lancez le scénario de démo :

python demo_scenario.py

Scénario : Une startup AI résout un bug critique en 45 minutes au lieu de 2h grâce au partage d'information instantané.

📊 Cas d'usage

1. Résolution de problèmes

  • CS reçoit une plainte client → stocke dans la mémoire collective
  • CTO cherche le contexte → trouve immédiatement l'impact business
  • CEO voit la priorité → tout le monde est aligné

2. Prise de décisions

  • Décisions documentées et traçables
  • Contexte historique accessible
  • Validation collaborative

3. Onboarding

  • Nouveaux membres accèdent à l'historique
  • Connaissances préservées
  • Meilleures pratiques partagées

🔧 Configuration

Variables d'environnement :

  • QDRANT_URL - URL de votre cluster Qdrant
  • QDRANT_API_KEY - Clé API Qdrant
  • MISTRAL_API_KEY - Clé API Mistral (pour embeddings)
  • DEFAULT_WORKSPACE - Workspace par défaut

Permissions :

  • private - Seul le créateur peut voir
  • team - Tous les membres du workspace
  • public - Accessible à tous

🎯 Roadmap

Phase 1 (MVP) ✅

  • [x] Stockage de mémoires
  • [x] Recherche sémantique
  • [x] Système de permissions
  • [x] Analytics d'équipe

Phase 2 (Améliorations)

  • [ ] Intégration Qdrant réelle
  • [ ] Embeddings Mistral
  • [ ] Knowledge graph
  • [ ] Dashboard web

Phase 3 (Avancé)

  • [ ] Multi-langue
  • [ ] Voice notes
  • [ ] Predictive insights
  • [ ] API REST

🏆 Avantages concurrentiels

  1. Multi-tenant - Isolation par workspace
  2. Permissions granulaires - Contrôle fin de l'accès
  3. Recherche sémantique - Trouve même avec des mots différents
  4. Validation collaborative - Crowdsourcing de la vérité
  5. Analytics temps réel - Insights sur l'activité équipe

🤝 Contribution

Ce projet a été développé lors du Mistral AI MCP Hackathon 2025.

📄 Licence

MIT License - Voir le fichier LICENSE pour plus de détails.

Recommended Servers

playwright-mcp

playwright-mcp

A Model Context Protocol server that enables LLMs to interact with web pages through structured accessibility snapshots without requiring vision models or screenshots.

Official
Featured
TypeScript
Magic Component Platform (MCP)

Magic Component Platform (MCP)

An AI-powered tool that generates modern UI components from natural language descriptions, integrating with popular IDEs to streamline UI development workflow.

Official
Featured
Local
TypeScript
Audiense Insights MCP Server

Audiense Insights MCP Server

Enables interaction with Audiense Insights accounts via the Model Context Protocol, facilitating the extraction and analysis of marketing insights and audience data including demographics, behavior, and influencer engagement.

Official
Featured
Local
TypeScript
VeyraX MCP

VeyraX MCP

Single MCP tool to connect all your favorite tools: Gmail, Calendar and 40 more.

Official
Featured
Local
graphlit-mcp-server

graphlit-mcp-server

The Model Context Protocol (MCP) Server enables integration between MCP clients and the Graphlit service. Ingest anything from Slack to Gmail to podcast feeds, in addition to web crawling, into a Graphlit project - and then retrieve relevant contents from the MCP client.

Official
Featured
TypeScript
Kagi MCP Server

Kagi MCP Server

An MCP server that integrates Kagi search capabilities with Claude AI, enabling Claude to perform real-time web searches when answering questions that require up-to-date information.

Official
Featured
Python
E2B

E2B

Using MCP to run code via e2b.

Official
Featured
Neon Database

Neon Database

MCP server for interacting with Neon Management API and databases

Official
Featured
Exa Search

Exa Search

A Model Context Protocol (MCP) server lets AI assistants like Claude use the Exa AI Search API for web searches. This setup allows AI models to get real-time web information in a safe and controlled way.

Official
Featured
Qdrant Server

Qdrant Server

This repository is an example of how to create a MCP server for Qdrant, a vector search engine.

Official
Featured