ApliArte AI
Chat de IA 100% local para VS Code.
Corre modelos directamente en tu máquina — sin APIs externas, sin cuentas, sin coste.
También conecta LM Studio y Ollama si ya los usas.
🌐 Web ·
VS Marketplace ·
Open VSX (Cursor/Windsurf/Antigravity)
Por qué ApliArte AI
La mayoría de extensiones de IA para VS Code requieren una API key de pago o envían tu código a la nube. ApliArte AI es diferente:
- Sin internet: Todo corre en tu máquina. Tu código nunca sale de tu ordenador.
- Sin cuentas: No necesitas registrarte en ningún servicio.
- Sin coste: Modelos open-source, gratis para siempre.
- Tres modos: Inferencia local (transformers.js v4), LM Studio/Ollama, o Agent Cloud con tu propio servidor.
Funcionalidades
Chat con IA local
- Streaming en tiempo real con respuestas en markdown
- Bloques de código con syntax highlighting
- Botones de copiar, insertar en editor y aplicar diff en cada bloque
- Historial de conversación con export a markdown
- Control de temperatura para ajustar creatividad
Inferencia local (modo Local)
- Corre modelos ONNX directamente en VS Code usando transformers.js v4
- No necesitas instalar nada externo — las dependencias se descargan automáticamente la primera vez
- Catálogo de modelos preconfigurados y verificados:
| Modelo |
Tamaño |
Uso recomendado |
| Qwen 2.5 0.5B |
~350 MB |
Ultra-rápido, respuestas instantáneas |
| Qwen 2.5 1.5B |
~1 GB |
Buen balance velocidad/calidad |
| Qwen 2.5 3B |
~2 GB |
Mejor calidad de respuestas |
| SmolLM2 360M |
~250 MB |
Mínimo consumo de recursos |
- Barra de progreso durante la descarga del modelo
- Los modelos se cachean localmente después de la primera descarga
Conexión con LM Studio / Ollama (modo Remoto)
- Detección automática de LM Studio y Ollama
- Selector de modelo entre los cargados en tu servidor local
- Indicador de conexión con reintento automático
- Compatible con cualquier modelo que soporte la API de OpenAI
Modo Agent (tu propio servidor)
- Conecta la extensión a un backend propio desplegado en un VPS
- El modelo de IA corre en la nube (OpenAI, Anthropic, Google, Groq…) — tú eliges cuál
- Herramientas de código: el agente puede leer archivos, escribir código, buscar en tu proyecto y ejecutar comandos — todo con tu aprobación
- RAG automático: indexa tu workspace y el agente busca contexto relevante antes de responder
- Las herramientas se ejecutan localmente en tu máquina — el servidor solo coordina con el modelo de IA
- Confirmación obligatoria antes de escribir archivos o ejecutar comandos en terminal
- Guía completa de deployment en server/README.md
Explorador de workspace
- Árbol de archivos integrado en el panel de ApliArte AI
- Selecciona archivos para adjuntarlos como contexto al chat
- El modelo "ve" tu código y responde con conocimiento de tu proyecto
Acciones rápidas
Selecciona código y ejecuta con un click (o desde el menú contextual del editor):
| Acción |
Descripción |
| Explicar |
Explicación detallada del código seleccionado |
| Refactorizar |
Sugiere mejoras y código más limpio |
| Buscar bugs |
Analiza posibles errores y edge cases |
| Generar tests |
Crea tests unitarios para el código |
| Documentar |
Genera documentación y comentarios |
| Optimizar |
Propone mejoras de rendimiento |
Recomendador de modelos
- Detecta tu hardware (RAM, CPU, GPU) automáticamente
- Sugiere el mejor modelo según tus recursos
- Recomendaciones separadas para LM Studio y Ollama
Instalación
Desde el Marketplace
- Abre VS Code
Cmd + Shift + X (extensiones)
- Busca "ApliArte AI"
- Click en Instalar
Desde la línea de comandos
code --install-extension apliarte.apliarte-ai
Uso rápido
Modo Local (sin instalar nada)
- Abre el panel de ApliArte AI en la barra lateral
- Selecciona "Local (sin instalar nada)" en el selector de proveedor
- La primera vez, se instalan las dependencias (~1 GB, automático)
- Elige un modelo del catálogo y espera a que se descargue
- Empieza a chatear
Modo Remoto (LM Studio / Ollama)
- Ten LM Studio u Ollama corriendo con un modelo cargado
- Selecciona "LM Studio / Ollama" en el selector de proveedor
- El modelo se detecta automáticamente
- Empieza a chatear
Modo Agent (tu propio servidor)
- Despliega el backend en un VPS siguiendo la guía de deployment
- Selecciona "Agent (Cloud)" en el selector de proveedor
- Configura la URL y API key en los settings de VS Code:
apliarteAi.agentEndpoint → la URL de tu servidor (ej: https://agent.tudominio.com)
apliarteAi.agentApiKey → tu clave de API
- El indicador mostrará "Agent" cuando esté conectado
- (Opcional) Ejecuta el comando "Indexar workspace (RAG)" desde la paleta de comandos para que el agente conozca tu proyecto
Atajos de teclado
| Atajo |
Acción |
Cmd + Shift + G |
Enviar selección al chat |
Cmd + Shift + E |
Explicar código seleccionado |
Paleta de comandos
Abre la paleta (Cmd + Shift + P) y escribe "ApliArte AI" para ver todos los comandos disponibles.
Configuración
| Setting |
Descripción |
Default |
apliarteAi.preset |
Preset de configuración (minimal, ecosystem-only, full-gentleman) |
minimal |
apliarteAi.lmstudioEndpoint |
URL del servidor LM Studio |
http://localhost:1234/v1 |
apliarteAi.ollamaEndpoint |
URL del servidor Ollama |
http://localhost:11434 |
apliarteAi.language |
Idioma del agente (es / en) |
es |
apliarteAi.agentEndpoint |
URL del backend Agent (modo Agent) |
(vacío) |
apliarteAi.agentApiKey |
API key para autenticar con el backend Agent |
(vacío) |
Arquitectura
apliarte-ai/
├── src/
│ ├── extension.ts # Entry point, registra comandos y providers
│ ├── core/
│ │ ├── llmService.ts # Cliente OpenAI-compatible (LM Studio/Ollama)
│ │ ├── agentService.ts # Cliente del backend Agent (SSE streaming)
│ │ ├── localInference.ts # Inferencia local con transformers.js v4
│ │ ├── detector.ts # Detección de LM Studio/Ollama en el sistema
│ │ ├── setup.ts # Wizard de configuración inicial
│ │ ├── preset.ts # System prompts preconfigurados
│ │ └── modelRecommender.ts # Recomendador de modelos según hardware
│ ├── tools/
│ │ └── executor.ts # Ejecutor local de herramientas (read/write/search/terminal)
│ ├── ui/
│ │ ├── chatView.ts # Webview del chat principal
│ │ ├── workspaceView.ts # Explorador de workspace
│ │ └── quickActions.ts # Acciones rápidas sobre código
│ └── utils/
│ └── logger.ts # Sistema de logs
├── server/ # Backend para modo Agent (Docker)
│ ├── main.py # API FastAPI (chat proxy, RAG, auth)
│ ├── Dockerfile
│ ├── docker-compose.yml
│ └── requirements.txt
├── dist/ # Bundle compilado (esbuild)
├── package.json # Manifiesto de la extensión
└── esbuild.js # Configuración de build
Stack técnico
- TypeScript + esbuild (bundle de ~80 KB)
- transformers.js v4 para inferencia local (instalado on-demand, no en el bundle)
- API OpenAI-compatible para LM Studio/Ollama
- FastAPI + Ollama embeddings para el backend Agent
- VS Code Webview API para la interfaz del chat
Privacidad
ApliArte AI respeta tu privacidad por diseño:
- Modo Local: El modelo corre dentro del proceso de VS Code usando transformers.js. Nada sale de tu máquina.
- Modo Remoto: La comunicación es entre VS Code y tu servidor local (localhost). Nada sale de tu red.
- Modo Agent: Tu código se envía a tu propio servidor (que tú controlas). Las herramientas (leer/escribir archivos, terminal) se ejecutan localmente en tu máquina — el servidor solo coordina con el modelo de IA. Este modo es opt-in: solo se activa si tú lo configuras.
- Sin telemetría: No se recopila ningún dato de uso.
- Sin cuentas: No se requiere registro ni login.
Roadmap
- [x] v0.1 — Detección de LM Studio/Ollama
- [x] v0.2 — Chat con streaming y markdown
- [x] v0.3 — Workspace explorer, acciones rápidas, diff/apply, recomendador de modelos
- [x] v0.4 — Inferencia local con transformers.js v4
- [x] v0.5 — Modo Agent con backend propio (tool-calling, RAG, deploy en VPS)
- [ ] v0.6 — Soporte MCP Client (Model Context Protocol) ⬅️ en desarrollo
- [ ] v0.7 — Mejoras de UX, persistencia de conversaciones, multi-idioma
- [ ] v0.8 — Quick-setup para servidores MCP populares (engram, GitHub, PostgreSQL…)
- [ ] v1.0 — Release estable
📋 Roadmap técnico detallado: ROADMAP.md
Compatibilidad
- VS Code >= 1.93.0
- Cursor AI
- Windsurf IDE
- Antigravity
- VS Codium
- Windows / macOS / Linux
Contribuir
Las contribuciones son bienvenidas. Abre un issue o un pull request.
git clone https://github.com/erbolamm/apliarte-ai.git
cd apliarte-ai
npm install
npm run watch # Desarrollo con hot-reload
# F5 en VS Code para lanzar la Extension Development Host
Autor
Javier Mateo (ApliArte) — github.com/erbolamm
💬 Una nota personal del autor / A personal note from the author
ℹ️ Nota: El texto siguiente es un mensaje personal del autor, escrito en varios idiomas para que pueda leerlo gente de todo el mundo. Esto no implica que el proyecto tenga soporte funcional completo en esos idiomas.
ℹ️ Note: The text below is a personal message from the author, written in several languages so people around the world can read it. This does not imply full multilingual feature support in those languages.
🇪🇸 Español
ApliArte AI nació de una frustración: todas las extensiones de IA para VS Code te piden una API key de pago o envían tu código a servidores externos. Yo quería algo que funcionara en MI máquina, con MIS modelos, sin depender de nadie.
Con transformers.js v4 conseguí que los modelos corran directamente dentro de VS Code — sin instalar LM Studio, sin Ollama, sin nada. Un click y funciona. Tu código nunca sale de tu ordenador.
Si eres desarrollador y valoras tu privacidad, esta herramienta es para vos. Es gratis, es open source, y siempre lo será.
🇬🇧 English
ApliArte AI was born out of frustration: every AI extension for VS Code requires a paid API key or sends your code to external servers. I wanted something that runs on MY machine, with MY models, without depending on anyone.
With transformers.js v4, I made models run directly inside VS Code — no LM Studio, no Ollama, nothing to install. One click and it works. Your code never leaves your computer.
If you're a developer who values privacy, this tool is for you. It's free, it's open source, and it always will be.
🇧🇷 Português
ApliArte AI nasceu de uma frustração: todas as extensões de IA para VS Code pedem uma API key paga ou enviam seu código para servidores externos. Eu queria algo que rodasse na MINHA máquina, com MEUS modelos, sem depender de ninguém.
Com transformers.js v4, consegui que os modelos rodem diretamente dentro do VS Code — sem instalar LM Studio, sem Ollama, sem nada. Um clique e funciona. Seu código nunca sai do seu computador.
Se você é desenvolvedor e valoriza sua privacidade, essa ferramenta é para você. É grátis, é open source, e sempre será.
🇫🇷 Français
ApliArte AI est né d'une frustration : toutes les extensions IA pour VS Code demandent une clé API payante ou envoient votre code vers des serveurs externes. Je voulais quelque chose qui tourne sur MA machine, avec MES modèles, sans dépendre de personne.
Avec transformers.js v4, j'ai fait tourner les modèles directement dans VS Code — pas de LM Studio, pas d'Ollama, rien à installer. Un clic et ça marche. Votre code ne quitte jamais votre ordinateur.
Si vous êtes développeur et que vous tenez à votre vie privée, cet outil est pour vous. C'est gratuit, c'est open source, et ça le restera toujours.
🇩🇪 Deutsch
ApliArte AI entstand aus Frustration: Jede KI-Erweiterung für VS Code verlangt einen kostenpflichtigen API-Schlüssel oder sendet Ihren Code an externe Server. Ich wollte etwas, das auf MEINEM Computer läuft, mit MEINEN Modellen, ohne von irgendjemandem abhängig zu sein.
Mit transformers.js v4 laufen die Modelle direkt in VS Code — kein LM Studio, kein Ollama, nichts zu installieren. Ein Klick und es funktioniert. Ihr Code verlässt niemals Ihren Computer.
Wenn Sie Entwickler sind und Ihre Privatsphäre schätzen, ist dieses Tool für Sie. Es ist kostenlos, es ist Open Source, und das wird es immer bleiben.
🇮🇹 Italiano
ApliArte AI è nato da una frustrazione: tutte le estensioni IA per VS Code richiedono una chiave API a pagamento o inviano il tuo codice a server esterni. Volevo qualcosa che funzionasse sulla MIA macchina, con i MIEI modelli, senza dipendere da nessuno.
Con transformers.js v4, ho fatto funzionare i modelli direttamente dentro VS Code — niente LM Studio, niente Ollama, niente da installare. Un click e funziona. Il tuo codice non lascia mai il tuo computer.
Se sei uno sviluppatore e tieni alla tua privacy, questo strumento è per te. È gratuito, è open source, e lo sarà sempre.
� Comparte
Si te gusta ApliArte AI, ayuda a que más gente lo conozca:

�💖 Apoya el proyecto
Herramienta gratuita y open source. Si te ahorra tiempo, un café ayuda a mantener el desarrollo.
🌐 Sitio oficial · 📦 GitHub
Licencia
MIT — © 2026 ApliArte