MCP-Server com CoConuT (Continuous Chain of Thought)
MarceloAssis123
README
MCP-Server com CoConuT (Continuous Chain of Thought)
Implementação de um servidor MCP (Model Context Protocol) que disponibiliza a ferramenta CoConuT para facilitar o pensamento estruturado em cadeia contínua com detecção automática de ciclos, gerenciamento de ramificações e interação guiada.
Recursos Principais
- Pensamento Contínuo em Cadeia: Implementação do CoConuT (Continuous Chain of Thought) para resolução estruturada de problemas
- Detecção de Ciclos: Algoritmos avançados para detectar raciocínio cíclico usando diferentes métricas de similaridade (Levenshtein, Jaccard, Cosine)
- Gerenciamento de Ramificações: Possibilidade de explorar diferentes linhas de pensamento com ramificações, comparações e mesclagem
- Reflexão Automática: Sistema de reflexão periódica para avaliar o progresso na resolução do problema
- Análise de Pensamentos: Análise automatizada da cadeia de pensamentos para verificar se o raciocínio está no caminho correto
- Registro de Conclusões: Sistema para documentar conclusões e mudanças realizadas de forma estruturada
- Persistência Integrada: Todos os dados são automaticamente persistidos para facilitar análise posterior
- Múltiplos Formatos de Resposta: Suporte para diferentes formatos (JSON, Markdown, HTML)
- Arquitetura Modular: Sistema baseado em componentes com injeção de dependências
- Documentação Integrada: Descrições detalhadas dos parâmetros de entrada incluídas na resposta
- Internacionalização: Suporte a mensagens em múltiplos idiomas
- Sistema de Templates: Templates flexíveis para personalização das conclusões
Requisitos
- Node.js 18 ou superior
- NPM
Instalação
Clone o repositório e instale as dependências:
git clone https://github.com/MarceloAssis123/MCP-servers.git
cd MCP-servers
npm install
Ou use diretamente via npx:
npx -y github:MarceloAssis123/MCP-servers
Configuração
O sistema utiliza um objeto de configuração centralizado em src/config.ts
. Os valores padrão são:
Configuração do CoConuT
maxHistorySize
: Tamanho máximo do histórico (padrão: 1000)cycleDetectionThreshold
: Limiar para detecção de ciclos (padrão: 0.8)persistenceEnabled
: Persistência sempre ativada (true)maxBranches
: Número máximo de ramificações (padrão: 10)reflectionInterval
: Intervalo de reflexão em pensamentos (padrão: 3)similarityAlgorithm
: Algoritmo de similaridade (padrão: 'levenshtein', opções: 'jaccard', 'cosine')enableSimilarityCache
: Ativar cache de similaridade (padrão: true)maxCacheSize
: Tamanho máximo do cache (padrão: 1000)
Parâmetros da Ferramenta CoConuT
A ferramenta CoConuT aceita os seguintes parâmetros de entrada:
thought
: O texto do pensamento atual no processo de raciocínionextThoughtNeeded
: Indica se é necessário um próximo pensamento (true) ou se a cadeia está concluída (false)thoughtNumber
: Número sequencial deste pensamento na cadeiatotalThoughts
: Número total estimado de pensamentos para resolver o problema (mínimo de 3 pensamentos obrigatório)isRevision
: Indica se este pensamento revisa um pensamento anteriorrevisesThought
: Número do pensamento que está sendo revisadobranchFromThought
: Número do pensamento a partir do qual esta ramificação começabranchId
: Identificador único da ramificação atualneedsMoreThoughts
: Indica se o problema precisa de mais pensamentos do que o previsto inicialmentescore
: Pontuação ou confiança associada a este pensamento (0-10)inputType
: Tipo de entrada esperada do usuárioproblemStatus
: Descrição do status atual da resolução do problemaoptions
: Lista de opções para o usuário escolhernumberArray
: Array de números fornecido como entradaCall_CoConuT_Analyser
: Indica se o analisador de cadeia de pensamentos deve ser chamado
Parâmetros da Ferramenta CoConuT_Analyser
A ferramenta CoConuT_Analyser permite analisar a cadeia de pensamentos atual:
thoughts
: Array contendo os pensamentos a serem analisadosuserQuery
: Consulta original do usuário para verificar alinhamentoprojectPath
: Caminho do projeto para contexto adicional
Parâmetros da Ferramenta CoConuT_Storage
A ferramenta CoConuT_Storage permite salvar conclusões estruturadas:
projectPath
: Caminho absoluto para o diretório do projeto onde os arquivos serão salvosWhyChange
: Explica por que a mudança foi necessária ou o que motivou a açãoWhatChange
: Descreve o que foi modificado ou implementadocategory
: Categoria principal da mudança (feature, bugfix, refactoring, etc.)subCategories
: Subcategorias para classificação mais específicatags
: Tags para melhorar a busca e classificação das mudançasimpactLevel
: Nível de impacto da mudança no sistema (low, medium, high)affectedFiles
: Lista de arquivos afetados pela mudançacodeSnippets
: Snippets de código mostrando as mudanças feitasrelatedConclusions
: IDs de conclusões relacionadasticketReference
: Referência a um ticket/issue em um sistema de rastreamentobusinessContext
: Contexto de negócio explicando o valor da mudançatechnicalContext
: Contexto técnico adicional sobre a arquitetura afetadaalternativesConsidered
: Alternativas consideradas e motivos de rejeiçãotestingPerformed
: Descrição de testes realizados para validar a mudança
Armazenamento de Dados
Os dados são sempre persistidos e os arquivos são salvos em uma pasta chamada coconut-data
no caminho fornecido pelo modelo através do parâmetro projectPath
. É importante que o modelo forneça um caminho absoluto válido para garantir o correto armazenamento dos dados.
Configuração do Servidor
name
: Nome do servidorversion
: Versão do servidor (padrão: '1.0.0')transport
: Tipo de transporte (fixo como 'stdio')
Configuração de Logs
minLevel
: Nível mínimo de logs (padrão: 'info', opções: 'debug', 'warn', 'error')enableConsole
: Logs no console (padrão: true)includeTimestamp
: Incluir timestamp nos logs (padrão: true)logFilePath
: Caminho para arquivo de log (opcional)
Uso
Para desenvolvimento:
npm run dev
Para produção:
npm run build
npm start
Exemplos de Uso
Usando CoConuT
Para iniciar uma cadeia de pensamentos:
{
"thought": "Primeiro passo na análise do problema...",
"thoughtNumber": 1,
"totalThoughts": 5,
"nextThoughtNeeded": true
}
Usando CoConuT_Analyser
Para analisar a cadeia de pensamentos:
{
"thoughts": [
{"thought": "Primeiro pensamento...", "thoughtNumber": 1},
{"thought": "Segundo pensamento...", "thoughtNumber": 2}
],
"userQuery": "Pergunta original do usuário"
}
Usando CoConuT_Storage
Para salvar uma conclusão:
{
"projectPath": "/caminho/absoluto/do/projeto",
"WhyChange": "Motivo da mudança",
"WhatChange": "Descrição da mudança",
"category": "feature",
"tags": ["api", "performance"]
}
Estrutura da Resposta
A resposta da ferramenta CoConuT inclui:
thoughtNumber
: Número do pensamento atualtotalThoughts
: Número total de pensamentos estimados para resolver o problemanextThoughtNeeded
: Se é necessário continuar com mais pensamentosanalysis
: Resultados da análise da cadeia de pensamentos (quando executada)branches
: Lista de todas as ramificações disponíveiscurrentBranch
: Ramificação atualthoughtHistoryLength
: Tamanho do histórico de pensamentoshasCycle
: Indica se foi detectado um ciclo no raciocíniosavedFiles
: Informações sobre os arquivos salvos durante a operaçãoinputDescriptions
: Descrições detalhadas de todos os parâmetros de entrada da ferramenta- Outros campos opcionais como
reflexionPoints
,action
,inputType
,message
,options
, etc.
Ferramentas Disponíveis
O servidor MCP expõe as seguintes ferramentas:
CoConuT
Implementação principal da ferramenta CoConuT que gerencia cadeias de pensamento com detecção automática de ciclos, ramificações e reflexão.
CoConuT_Analyser
Ferramenta para análise da cadeia de pensamentos que verifica:
- Se o raciocínio está no caminho correto
- Se são necessárias mais informações do usuário
- Se o número estimado de pensamentos é adequado
CoConuT_Storage
Ferramenta para documentar conclusões e registrar mudanças de forma estruturada:
- Salva conclusões em formato markdown
- Suporta metadados ricos (tags, categorias, impacto)
- Permite referências a código e arquivos
- Facilita busca e contextualização das mudanças
Arquitetura
O projeto utiliza uma arquitetura modular com injeção de dependências:
- index.ts: Ponto de entrada que configura o servidor MCP
- config.ts: Configuração centralizada
- modules/
- coconut/: Implementação principal do CoConuT
- analyser.ts: Implementação do analisador de cadeia de pensamentos
- coconut-storage.ts: Sistema de geração e armazenamento de conclusões
- branch/: Gerenciamento de ramificações
- cycle-detector/: Detecção de ciclos no pensamento
- input/: Sistema de gerenciamento de inputs
- formatters/: Formatadores de resposta
- utils/: Utilitários compartilhados
- logger.ts: Sistema de logging
- storage.ts: Persistência de dados
- factory.ts: Fábrica para criação de componentes
- types.ts: Definições de tipos e interfaces
Contribuindo
Contribuições são bem-vindas! Por favor, siga os passos:
- Faça um fork do projeto
- Crie uma branch para sua feature (
git checkout -b feature/nova-funcionalidade
) - Implemente sua feature com testes
- Commit suas mudanças (
git commit -m 'Adiciona nova funcionalidade'
) - Push para a branch (
git push origin feature/nova-funcionalidade
) - Abra um Pull Request
Licença
Este projeto está licenciado sob a Licença MIT.
Recommended Servers
Crypto Price & Market Analysis MCP Server
A Model Context Protocol (MCP) server that provides comprehensive cryptocurrency analysis using the CoinCap API. This server offers real-time price data, market analysis, and historical trends through an easy-to-use interface.
MCP PubMed Search
Server to search PubMed (PubMed is a free, online database that allows users to search for biomedical and life sciences literature). I have created on a day MCP came out but was on vacation, I saw someone post similar server in your DB, but figured to post mine.
dbt Semantic Layer MCP Server
A server that enables querying the dbt Semantic Layer through natural language conversations with Claude Desktop and other AI assistants, allowing users to discover metrics, create queries, analyze data, and visualize results.
mixpanel
Connect to your Mixpanel data. Query events, retention, and funnel data from Mixpanel analytics.

Sequential Thinking MCP Server
This server facilitates structured problem-solving by breaking down complex issues into sequential steps, supporting revisions, and enabling multiple solution paths through full MCP integration.

Nefino MCP Server
Provides large language models with access to news and information about renewable energy projects in Germany, allowing filtering by location, topic (solar, wind, hydrogen), and date range.
Vectorize
Vectorize MCP server for advanced retrieval, Private Deep Research, Anything-to-Markdown file extraction and text chunking.
Mathematica Documentation MCP server
A server that provides access to Mathematica documentation through FastMCP, enabling users to retrieve function documentation and list package symbols from Wolfram Mathematica.
kb-mcp-server
An MCP server aimed to be portable, local, easy and convenient to support semantic/graph based retrieval of txtai "all in one" embeddings database. Any txtai embeddings db in tar.gz form can be loaded
Research MCP Server
The server functions as an MCP server to interact with Notion for retrieving and creating survey data, integrating with the Claude Desktop Client for conducting and reviewing surveys.