MCP AI Bug Helper
Provides emergency coding assistance by querying three AI coding models simultaneously through OpenRouter, with automatic premium fallback on rate limits, returning multiple expert opinions with cost and latency telemetry for debugging and problem-solving.
README
<div align="center"> <img src="https://img.shields.io/badge/Codex%20MCP%20Helper-OpenRouter%20Advisors-f97316?style=for-the-badge&logo=protocols&logoColor=white" alt="Hero badge"> <h1>🪄 MCP AI Bug Helper</h1> <p>Die schnellste Möglichkeit, Codex CLI ein Notfall-Team aus drei Coding-LLMs (plus Premium-Fallback) zur Seite zu stellen.</p> <p> <a href="https://www.npmjs.com/package/@meinzeug/mcp-ai-bug-helper"> <img src="https://img.shields.io/npm/v/%40meinzeug%2Fmcp-ai-bug-helper?style=for-the-badge&logo=npm&color=CB3837" alt="npm version"> </a> <a href="https://www.npmjs.com/package/@meinzeug/mcp-ai-bug-helper"> <img src="https://img.shields.io/npm/dm/%40meinzeug%2Fmcp-ai-bug-helper?style=for-the-badge&logo=npm&color=F59E0B" alt="npm downloads"> </a> <img src="https://img.shields.io/badge/Node-%E2%89%A520.10-3DDC84?style=for-the-badge&logo=node.js&logoColor=white" alt="Node requirement"> <img src="https://img.shields.io/badge/MCP-Ready-2DD4BF?style=for-the-badge&logo=protocols&logoColor=white" alt="MCP ready badge"> <img src="https://img.shields.io/badge/License-MIT-6366F1?style=for-the-badge" alt="MIT license"> </p> <sub>Stand: 18. November 2025 · scoped npm Paket · stdio MCP transport</sub> </div>
🔗 Inhaltsverzeichnis
- ✨ Highlights
- ⚡️ Schnellstart
- 🛠️ Tool-Flow
- 🤝 Codex-Integration
- ⚙️ Konfiguration
- 🏗️ Architektur
- 🧪 Entwicklungs-Workflow
- 🧩 Troubleshooting
- 📜 Lizenz
✨ Highlights
- 🧠 Mehrstufige Advisor-Pipeline: 3 kostenlose OpenRouter-Codingmodelle + automatische Premium-Fallbacks bei Rate-Limits.
- 🤖 Codex-native Instruktionen: MCP Instructions erklären dem Agent genau, wann das Tool sinnvoll ist.
- 📉 Kosten- & Latenz-Telemetrie: Jede Antwort liefert Token-Usage + Antwortzeit direkt an Codex zurück.
- ⚡
npx-fähig:npx @meinzeug/mcp-ai-bug-helperreicht – kein Clonen erforderlich. - 🔐 Secretsafe:
.env+dotenvfür API Keys, keine versehentlichen Commits.
⚡️ Schnellstart
Option A – Zero Install via npx
export OPENROUTER_API_KEY=sk-or-v1-... # einmalig setzen
npx @meinzeug/mcp-ai-bug-helper
Option B – Lokal entwickeln
git clone https://github.com/meinzeug/mcp-ai-bug-helper.git
cd mcp-ai-bug-helper
npm install
cp .env.example .env && $EDITOR .env # Key eintragen
npm run dev
💡
npm run devstartet den MCP-Server viats-nodeund streamt Logs – perfekt zum Debuggen.
📦 Veröffentlichtes Paket:
@meinzeug/mcp-ai-bug-helper– überprüfbar mitnpm view @meinzeug/mcp-ai-bug-helper.
🛠️ Tool-Flow
| Phase | Beschreibung |
|---|---|
| 🔍 Analyse | ask-coding-advisors nimmt question + optional context entgegen (Stacktraces, Diffs, Logs). |
| 🧑💻 Advisor-Fächer | qwen/qwen3-coder:free, qwen/qwen-2.5-coder-32b-instruct:free, agentica-org/deepcoder-14b-preview:free. |
| 🚨 Fallback-Trigger | Erstes HTTP 429 schaltet auf Premium-Rotation: anthropic/claude-3.7-sonnet, mistralai/codestral-2508. |
| 📊 Response-Payload | Drei unabhängige Antworten + Latency + Token-Stats + Hinweis, ob Fallback aktiv war. |
Adaptive Modellwahl
- 🔎 Jeder Prompt wird analysiert (Keywords für React/Go/infra/LLM etc.), daraus entstehen
ScenarioTags(z. B.frontend,node,go). - 🤖 Für jeden Tag gibt es passende Modelle mit hinterlegten Stärken und Zuverlässigkeitsskalen (platinum/gold/silver).
- ✅ Vor jedem Call prüft der Server über
GET /api/v1/models, ob das Modell beim Account verfügbar ist. Modelle mit 404/500 werden für einige Minuten automatisch gesperrt. - 💳 Wenn kein gesundes Free-Modell verfügbar ist oder ein 429 zurückkommt, wird automatisch auf Premium-Fallbacks (Claude, Codestral, GPT-5.1 Codex) gewechselt.
- 🚫 Sobald die kostenlosen Modelle dauerhaft fehlschlagen (z. B. Quota aufgebraucht oder Provider-404), werden sie für den gesamten Prozess deaktiviert – alle weiteren Aufrufe laufen direkt über die kostenpflichtigen Advisors.
sequenceDiagram
participant Codex
participant MCP as MCP Server
participant OR as OpenRouter
Codex->>MCP: call ask-coding-advisors(question, context)
loop 3 advisors
MCP->>OR: chat(model=free[i])
alt HTTP 429
MCP->>OR: chat(model=paid[j])
end
OR-->>MCP: text + usage + latency
MCP-->>Codex: stream advisor result
end
🤝 Codex-Integration
- Server in Codex registrieren
codex mcp add coding-advisors \ --env "OPENROUTER_API_KEY=sk-or-v1-..." \ npx @meinzeug/mcp-ai-bug-helper # Syntax entspricht auch anderen MCP-Beispielen wie # codex mcp add chrome-devtools -- npx chrome-devtools-mcp@latest - Verifizieren
codex mcp list | grep coding-advisors - Im Prompt nutzen
/tools→ask-coding-advisors- oder direkt mit
@ask-coding-advisorsim Prompt.
📎 Wenn du lieber aus dem Repo startest:
--cmd "node" --args "dist/server.js"verwenden.
Andere MCP-Clients
- Claude Code: Anthropic beschreibt in den Claude-Code-MCP-Docs exakt den gleichen stdio-/HTTP-Mechanismus. Du kannst denselben Befehl wie oben benutzen (oder einen
claude.json-Eintrag), und die Tools erscheinen dort unter/mcpbzw.@ask-coding-advisors. - Sonstige IDEs: Jede Umgebung, die MCP spricht (z. B. VS Code-Extensions, Cursor, Eigene Agenten), kann denselben Server starten. Wichtig ist nur, dass
OPENROUTER_API_KEYgesetzt ist und der Prozess via stdio oder TCP erreichbar ist.
Schnellbefehle für gängige Clients
- Amp CLI –
amp mcp add coding-advisors -- npx @meinzeug/mcp-ai-bug-helper - Claude Code CLI –
claude mcp add coding-advisors npx @meinzeug/mcp-ai-bug-helper - Codex CLI –
codex mcp add coding-advisors --env "OPENROUTER_API_KEY=sk-or-v1-..." npx @meinzeug/mcp-ai-bug-helper - Copilot CLI –
/mcp add→ Namecoding-advisors, Commandnpx @meinzeug/mcp-ai-bug-helper - VS Code / Copilot –
code --add-mcp '{"name":"coding-advisors","command":"npx","args":["@meinzeug/mcp-ai-bug-helper"]}' - Cursor / Amp / Cline / Kiro / Qoder / Warp / Windsurf / JetBrains AI / Gemini / Droid (Factory CLI) – überall einfach denselben Command + Name übernehmen; falls der Client eine Konfigurationsdatei verlangt, setzt du
command = "npx",args = ["@meinzeug/mcp-ai-bug-helper"]und ergänztOPENROUTER_API_KEYin der jeweiligenenv-Sektion. Mobile Beispiele findest du in deren MCP-Handbüchern (Links: Amp, Cline, Gemini CLI, JetBrains AI Assistant). - Windows 11 & Codex – falls
npxChrome oder Node ausProgram Filesladen muss, ergänze in~/.codex/config.toml:[mcp_servers.coding-advisors] command = "cmd" args = ["/c", "npx", "@meinzeug/mcp-ai-bug-helper"] env = { SystemRoot="C:\\Windows", PROGRAMFILES="C:\\Program Files", OPENROUTER_API_KEY="sk-or-v1-..." } startup_timeout_ms = 20_000
⚙️ Konfiguration
| Variable | Pflicht | Beschreibung |
|---|---|---|
OPENROUTER_API_KEY |
✅ | Persönlicher OpenRouter Key (liegt in .env). |
OPENROUTER_APP_NAME |
⛔ optional | Eigener Analytics-Tag (Default: MCP AI Bug Helper). |
OPENROUTER_REFERRER |
⛔ optional | Referrer-URL für OpenRouter-Dashboard. |
.env.example liefert ein Template. Für Mehrfach-Workspaces einfach mehrere .env Dateien pflegen und vor dem Start sourcen.
🏗️ Architektur
- Transport:
@modelcontextprotocol/sdk+StdioServerTransport - Domainlogik:
CodingAdvisorCoordinatororchestriert freie + paid Modelle. - HTTP-Layer:
OpenRouterClient(nativefetch, Retry auf Rate-Limits, Usage-Mapping). - Config:
config.tsliest.env,assertConfig()schützt vor fehlendem Key. - Packaging: Scoped npm Modul,
bin→dist/server.js,prepare/postbuilderzeugen ausführbares Artefakt.
src/
├─ server.ts # MCP Bootstrap + Tool Definition
├─ codingAdvisors.ts # Sequencer + Fallback-Rotation
├─ openrouterClient.ts # REST Wrapper + Error Handling
├─ modelCatalog.ts # Liste freier & paid Modelle
├─ config.ts # dotenv + Validation
└─ errors.ts / types.ts # Hilfsklassen & DTOs
🧪 Entwicklungs-Workflow
| Script | Zweck |
|---|---|
npm run dev |
MCP Server mit ts-node (Logs in Echtzeit). |
npm run build |
TypeScript Build + .d.ts + Sourcemaps + postbuild chmod. |
npm run typecheck |
Schneller TS-Check ohne Emit. |
npm start |
Führt das gebaute CLI (dist/server.js). |
npm run scenarios |
Führt reale OpenRouter-Tests auf mehreren Debug-Szenarien aus (filterbar via SCENARIO=react). |
Bei Veröffentlichung sorgt
npm publishautomatisch für frische Builds (viaprepare).
🧩 Troubleshooting
Missing OPENROUTER_API_KEY–.envnicht geladen? Terminal neu starten odersource .env.429 Too Many Requests– Die App schwenkt automatisch auf die Premiumliste. Wenn alles blockiert ist, hilft nur Warten oder eigener OpenRouter-Plan.codex mcp add ...schlägt fehl – Prüfe, obcodexZugriff aufnpxhat (Pfad) oder wechsle auf direktennode dist/server.jsBefehl.- Keine Antworten im Codex-UI –
npm run devseparat starten und schauen, ob Requests ankommen (stdout).
📜 Lizenz
MIT © meinzeug – Mit Liebe für MCP + Codex gebaut. Contributions willkommen! 🎉
Recommended Servers
playwright-mcp
A Model Context Protocol server that enables LLMs to interact with web pages through structured accessibility snapshots without requiring vision models or screenshots.
Audiense Insights MCP Server
Enables interaction with Audiense Insights accounts via the Model Context Protocol, facilitating the extraction and analysis of marketing insights and audience data including demographics, behavior, and influencer engagement.
Magic Component Platform (MCP)
An AI-powered tool that generates modern UI components from natural language descriptions, integrating with popular IDEs to streamline UI development workflow.
VeyraX MCP
Single MCP tool to connect all your favorite tools: Gmail, Calendar and 40 more.
Kagi MCP Server
An MCP server that integrates Kagi search capabilities with Claude AI, enabling Claude to perform real-time web searches when answering questions that require up-to-date information.
graphlit-mcp-server
The Model Context Protocol (MCP) Server enables integration between MCP clients and the Graphlit service. Ingest anything from Slack to Gmail to podcast feeds, in addition to web crawling, into a Graphlit project - and then retrieve relevant contents from the MCP client.
Qdrant Server
This repository is an example of how to create a MCP server for Qdrant, a vector search engine.
Neon Database
MCP server for interacting with Neon Management API and databases
Exa Search
A Model Context Protocol (MCP) server lets AI assistants like Claude use the Exa AI Search API for web searches. This setup allows AI models to get real-time web information in a safe and controlled way.
E2B
Using MCP to run code via e2b.