LTspice MCP Server
This server enables LLMs to design, simulate, and debug electronic circuits using LTspice via natural language commands. It automates netlist generation, library component validation, and iterative error correction for SPICE simulations.
README
LTspice MCP Server
Un servidor MCP (Model Context Protocol) que permite a los LLMs diseñar y simular circuitos electrónicos usando LTspice.
Este proyecto conecta asistentes de IA (como Google Gemini) con LTspice XVII, permitiendo diseño de circuitos en lenguaje natural y simulación automática. Simplemente describí un circuito y la IA generará el netlist, lo simulará, detectará errores y los corregirá iterativamente hasta lograr una simulación exitosa.
🌟 Características
- 🔌 Integración directa con LTspice - Generación automática de netlists y simulación
- 🔄 Auto-corrección - Detecta y corrige errores comunes de SPICE (singular matrix, convergencia, etc.)
- 📚 Búsqueda en biblioteca - Valida componentes antes de simular
- 📁 Organización automática - Cada circuito se guarda en su propia carpeta con logs
- 🤖 Diseño asistido por IA - Compatible con cualquier LLM que soporte MCP
📋 Requisitos Previos
Necesitás tener instalado:
- Python 3.11+ - Descargar
- uv - Guía de instalación
- LTspice XVII - Descargar de Analog Devices
- Gemini CLI - Guía de instalación
Sistema: Windows 10/11
🚀 Instalación
1. Clonar el Repositorio
git clone https://github.com/luc-me/ltspiceMCP.git
cd ltspiceMCP
2. Instalar Dependencias
uv sync
3. Configurar Biblioteca de LTspice
Después de instalar LTspice, extraer la biblioteca de componentes:
- Ir a
C:\Program Files\ADI\LTspice\(o donde instalaste LTspice) - Buscar el archivo
lib.zip - Extraerlo en
C:\Users\<TuUsuario>\Documents\LTspice\lib\
4. Configurar Gemini CLI
Editar el archivo de configuración de Gemini CLI:
Ubicación: C:\Users\<TuUsuario>\.gemini\settings.json
Agregar en la sección mcpServers:
{
"mcpServers": {
"ltspice-circuit": {
"command": "uv",
"args": ["run", "server.py"],
"cwd": "C:\\ruta\\completa\\a\\ltspiceMCP",
"env": {
"PYTHONIOENCODING": "utf-8"
}
}
}
}
Importante: Reemplazar la ruta con tu ubicación real del proyecto.
5. Verificar
Ejecutar el script de verificación:
uv run install.py
💡 Ejemplos de Uso
Una vez configurado, podés usar lenguaje natural en Gemini CLI:
Diseñame un filtro pasa-bajos RC con frecuencia de corte de 1kHz.
Usá un capacitor de 10nF y calculá el resistor.
Creá un amplificador emisor común con un transistor BC547.
Tensión de alimentación: 12V, resistor de carga: 2.2kΩ.
La IA automáticamente:
- Buscará componentes disponibles
- Generará el netlist
- Simulará el circuito
- Intentará corregir errores si los hay
- Guardará todo en
circuitos/<nombre_proyecto>/
🔧 Configuración
Ruta Personalizada de LTspice
Si LTspice está en otra ubicación, editar en server.py:
LTSPICE_EXE = r"C:\Tu\Ruta\LTspice.exe"
Ruta Personalizada de Biblioteca
LTSPICE_LIB_PATH = os.path.expanduser(r"~\Tu\Ruta\lib")
🐛 Solución de Problemas
"LTspice.exe no encontrado"
- Verificar que LTspice esté instalado
- Revisar la ruta en
server.py - Ejecutar
install.pypara auto-detectar la ruta
"Componente no encontrado"
- Asegurar que
lib.zipesté extraído enDocuments\LTspice\lib\ - La IA sugerirá automáticamente alternativas genéricas
"Singular Matrix" o "Time step too small"
- Son errores de SPICE que la IA corrige automáticamente (hasta 3 intentos)
- Revisar el archivo
.logen la carpeta del circuito para más detalles
El servidor MCP no se conecta
- Verificar que Gemini CLI esté instalado correctamente
- Revisar que
settings.jsontenga la ruta correcta - Asegurar que
uvesté en el PATH del sistema - Reiniciar Gemini CLI después de cambios
Recommended Servers
playwright-mcp
A Model Context Protocol server that enables LLMs to interact with web pages through structured accessibility snapshots without requiring vision models or screenshots.
Magic Component Platform (MCP)
An AI-powered tool that generates modern UI components from natural language descriptions, integrating with popular IDEs to streamline UI development workflow.
Audiense Insights MCP Server
Enables interaction with Audiense Insights accounts via the Model Context Protocol, facilitating the extraction and analysis of marketing insights and audience data including demographics, behavior, and influencer engagement.
VeyraX MCP
Single MCP tool to connect all your favorite tools: Gmail, Calendar and 40 more.
graphlit-mcp-server
The Model Context Protocol (MCP) Server enables integration between MCP clients and the Graphlit service. Ingest anything from Slack to Gmail to podcast feeds, in addition to web crawling, into a Graphlit project - and then retrieve relevant contents from the MCP client.
Kagi MCP Server
An MCP server that integrates Kagi search capabilities with Claude AI, enabling Claude to perform real-time web searches when answering questions that require up-to-date information.
E2B
Using MCP to run code via e2b.
Neon Database
MCP server for interacting with Neon Management API and databases
Exa Search
A Model Context Protocol (MCP) server lets AI assistants like Claude use the Exa AI Search API for web searches. This setup allows AI models to get real-time web information in a safe and controlled way.
Qdrant Server
This repository is an example of how to create a MCP server for Qdrant, a vector search engine.