LTspice MCP Server

LTspice MCP Server

This server enables LLMs to design, simulate, and debug electronic circuits using LTspice via natural language commands. It automates netlist generation, library component validation, and iterative error correction for SPICE simulations.

Category
Visit Server

README

LTspice MCP Server

Un servidor MCP (Model Context Protocol) que permite a los LLMs diseñar y simular circuitos electrónicos usando LTspice.

Este proyecto conecta asistentes de IA (como Google Gemini) con LTspice XVII, permitiendo diseño de circuitos en lenguaje natural y simulación automática. Simplemente describí un circuito y la IA generará el netlist, lo simulará, detectará errores y los corregirá iterativamente hasta lograr una simulación exitosa.


🌟 Características

  • 🔌 Integración directa con LTspice - Generación automática de netlists y simulación
  • 🔄 Auto-corrección - Detecta y corrige errores comunes de SPICE (singular matrix, convergencia, etc.)
  • 📚 Búsqueda en biblioteca - Valida componentes antes de simular
  • 📁 Organización automática - Cada circuito se guarda en su propia carpeta con logs
  • 🤖 Diseño asistido por IA - Compatible con cualquier LLM que soporte MCP

📋 Requisitos Previos

Necesitás tener instalado:

  1. Python 3.11+ - Descargar
  2. uv - Guía de instalación
  3. LTspice XVII - Descargar de Analog Devices
  4. Gemini CLI - Guía de instalación

Sistema: Windows 10/11


🚀 Instalación

1. Clonar el Repositorio

git clone https://github.com/luc-me/ltspiceMCP.git
cd ltspiceMCP

2. Instalar Dependencias

uv sync

3. Configurar Biblioteca de LTspice

Después de instalar LTspice, extraer la biblioteca de componentes:

  1. Ir a C:\Program Files\ADI\LTspice\ (o donde instalaste LTspice)
  2. Buscar el archivo lib.zip
  3. Extraerlo en C:\Users\<TuUsuario>\Documents\LTspice\lib\

4. Configurar Gemini CLI

Editar el archivo de configuración de Gemini CLI:

Ubicación: C:\Users\<TuUsuario>\.gemini\settings.json

Agregar en la sección mcpServers:

{
  "mcpServers": {
    "ltspice-circuit": {
      "command": "uv",
      "args": ["run", "server.py"],
      "cwd": "C:\\ruta\\completa\\a\\ltspiceMCP",
      "env": {
        "PYTHONIOENCODING": "utf-8"
      }
    }
  }
}

Importante: Reemplazar la ruta con tu ubicación real del proyecto.

5. Verificar

Ejecutar el script de verificación:

uv run install.py

💡 Ejemplos de Uso

Una vez configurado, podés usar lenguaje natural en Gemini CLI:

Diseñame un filtro pasa-bajos RC con frecuencia de corte de 1kHz.
Usá un capacitor de 10nF y calculá el resistor.
Creá un amplificador emisor común con un transistor BC547.
Tensión de alimentación: 12V, resistor de carga: 2.2kΩ.

La IA automáticamente:

  1. Buscará componentes disponibles
  2. Generará el netlist
  3. Simulará el circuito
  4. Intentará corregir errores si los hay
  5. Guardará todo en circuitos/<nombre_proyecto>/

🔧 Configuración

Ruta Personalizada de LTspice

Si LTspice está en otra ubicación, editar en server.py:

LTSPICE_EXE = r"C:\Tu\Ruta\LTspice.exe"

Ruta Personalizada de Biblioteca

LTSPICE_LIB_PATH = os.path.expanduser(r"~\Tu\Ruta\lib")

🐛 Solución de Problemas

"LTspice.exe no encontrado"

  • Verificar que LTspice esté instalado
  • Revisar la ruta en server.py
  • Ejecutar install.py para auto-detectar la ruta

"Componente no encontrado"

  • Asegurar que lib.zip esté extraído en Documents\LTspice\lib\
  • La IA sugerirá automáticamente alternativas genéricas

"Singular Matrix" o "Time step too small"

  • Son errores de SPICE que la IA corrige automáticamente (hasta 3 intentos)
  • Revisar el archivo .log en la carpeta del circuito para más detalles

El servidor MCP no se conecta

  1. Verificar que Gemini CLI esté instalado correctamente
  2. Revisar que settings.json tenga la ruta correcta
  3. Asegurar que uv esté en el PATH del sistema
  4. Reiniciar Gemini CLI después de cambios

Recommended Servers

playwright-mcp

playwright-mcp

A Model Context Protocol server that enables LLMs to interact with web pages through structured accessibility snapshots without requiring vision models or screenshots.

Official
Featured
TypeScript
Magic Component Platform (MCP)

Magic Component Platform (MCP)

An AI-powered tool that generates modern UI components from natural language descriptions, integrating with popular IDEs to streamline UI development workflow.

Official
Featured
Local
TypeScript
Audiense Insights MCP Server

Audiense Insights MCP Server

Enables interaction with Audiense Insights accounts via the Model Context Protocol, facilitating the extraction and analysis of marketing insights and audience data including demographics, behavior, and influencer engagement.

Official
Featured
Local
TypeScript
VeyraX MCP

VeyraX MCP

Single MCP tool to connect all your favorite tools: Gmail, Calendar and 40 more.

Official
Featured
Local
graphlit-mcp-server

graphlit-mcp-server

The Model Context Protocol (MCP) Server enables integration between MCP clients and the Graphlit service. Ingest anything from Slack to Gmail to podcast feeds, in addition to web crawling, into a Graphlit project - and then retrieve relevant contents from the MCP client.

Official
Featured
TypeScript
Kagi MCP Server

Kagi MCP Server

An MCP server that integrates Kagi search capabilities with Claude AI, enabling Claude to perform real-time web searches when answering questions that require up-to-date information.

Official
Featured
Python
E2B

E2B

Using MCP to run code via e2b.

Official
Featured
Neon Database

Neon Database

MCP server for interacting with Neon Management API and databases

Official
Featured
Exa Search

Exa Search

A Model Context Protocol (MCP) server lets AI assistants like Claude use the Exa AI Search API for web searches. This setup allows AI models to get real-time web information in a safe and controlled way.

Official
Featured
Qdrant Server

Qdrant Server

This repository is an example of how to create a MCP server for Qdrant, a vector search engine.

Official
Featured