Skip to content
| Marketplace
Sign in
Visual Studio Code>Machine Learning>ApliArte AI — Chat de IA LocalNew to Visual Studio Code? Get it now.
ApliArte AI — Chat de IA Local

ApliArte AI — Chat de IA Local

ApliArte

|
20 installs
| (0) | Free
Chat de IA local para VS Code. Corre modelos directo en tu máquina o conecta LM Studio/Ollama. Sin APIs externas, 100% privado, 0 coste.
Installation
Launch VS Code Quick Open (Ctrl+P), paste the following command, and press enter.
Copied to clipboard
More Info

ApliArte AI

ApliArte AI

Chat de IA 100% local para VS Code.
Corre modelos directamente en tu máquina — sin APIs externas, sin cuentas, sin coste.
También conecta LM Studio y Ollama si ya los usas.

VS Marketplace Version VS Marketplace Installs License

🌐 Web · VS Marketplace · Open VSX (Cursor/Windsurf/Antigravity)


Por qué ApliArte AI

La mayoría de extensiones de IA para VS Code requieren una API key de pago o envían tu código a la nube. ApliArte AI es diferente:

  • Sin internet: Todo corre en tu máquina. Tu código nunca sale de tu ordenador.
  • Sin cuentas: No necesitas registrarte en ningún servicio.
  • Sin coste: Modelos open-source, gratis para siempre.
  • Tres modos: Inferencia local (transformers.js v4), LM Studio/Ollama, o Agent Cloud con tu propio servidor.

Funcionalidades

Chat con IA local

  • Streaming en tiempo real con respuestas en markdown
  • Bloques de código con syntax highlighting
  • Botones de copiar, insertar en editor y aplicar diff en cada bloque
  • Historial de conversación con export a markdown
  • Control de temperatura para ajustar creatividad

Inferencia local (modo Local)

  • Corre modelos ONNX directamente en VS Code usando transformers.js v4
  • No necesitas instalar nada externo — las dependencias se descargan automáticamente la primera vez
  • Catálogo de modelos preconfigurados y verificados:
Modelo Tamaño Uso recomendado
Qwen 2.5 0.5B ~350 MB Ultra-rápido, respuestas instantáneas
Qwen 2.5 1.5B ~1 GB Buen balance velocidad/calidad
Qwen 2.5 3B ~2 GB Mejor calidad de respuestas
SmolLM2 360M ~250 MB Mínimo consumo de recursos
  • Barra de progreso durante la descarga del modelo
  • Los modelos se cachean localmente después de la primera descarga

Conexión con LM Studio / Ollama (modo Remoto)

  • Detección automática de LM Studio y Ollama
  • Selector de modelo entre los cargados en tu servidor local
  • Indicador de conexión con reintento automático
  • Compatible con cualquier modelo que soporte la API de OpenAI

Modo Agent (tu propio servidor)

  • Conecta la extensión a un backend propio desplegado en un VPS
  • El modelo de IA corre en la nube (OpenAI, Anthropic, Google, Groq…) — tú eliges cuál
  • Herramientas de código: el agente puede leer archivos, escribir código, buscar en tu proyecto y ejecutar comandos — todo con tu aprobación
  • RAG automático: indexa tu workspace y el agente busca contexto relevante antes de responder
  • Las herramientas se ejecutan localmente en tu máquina — el servidor solo coordina con el modelo de IA
  • Confirmación obligatoria antes de escribir archivos o ejecutar comandos en terminal
  • Guía completa de deployment en server/README.md

Explorador de workspace

  • Árbol de archivos integrado en el panel de ApliArte AI
  • Selecciona archivos para adjuntarlos como contexto al chat
  • El modelo "ve" tu código y responde con conocimiento de tu proyecto

Acciones rápidas

Selecciona código y ejecuta con un click (o desde el menú contextual del editor):

Acción Descripción
Explicar Explicación detallada del código seleccionado
Refactorizar Sugiere mejoras y código más limpio
Buscar bugs Analiza posibles errores y edge cases
Generar tests Crea tests unitarios para el código
Documentar Genera documentación y comentarios
Optimizar Propone mejoras de rendimiento

Recomendador de modelos

  • Detecta tu hardware (RAM, CPU, GPU) automáticamente
  • Sugiere el mejor modelo según tus recursos
  • Recomendaciones separadas para LM Studio y Ollama

Instalación

Desde el Marketplace

  1. Abre VS Code
  2. Cmd + Shift + X (extensiones)
  3. Busca "ApliArte AI"
  4. Click en Instalar

Desde la línea de comandos

code --install-extension apliarte.apliarte-ai

Uso rápido

Modo Local (sin instalar nada)

  1. Abre el panel de ApliArte AI en la barra lateral
  2. Selecciona "Local (sin instalar nada)" en el selector de proveedor
  3. La primera vez, se instalan las dependencias (~1 GB, automático)
  4. Elige un modelo del catálogo y espera a que se descargue
  5. Empieza a chatear

Modo Remoto (LM Studio / Ollama)

  1. Ten LM Studio u Ollama corriendo con un modelo cargado
  2. Selecciona "LM Studio / Ollama" en el selector de proveedor
  3. El modelo se detecta automáticamente
  4. Empieza a chatear

Modo Agent (tu propio servidor)

  1. Despliega el backend en un VPS siguiendo la guía de deployment
  2. Selecciona "Agent (Cloud)" en el selector de proveedor
  3. Configura la URL y API key en los settings de VS Code:
    • apliarteAi.agentEndpoint → la URL de tu servidor (ej: https://agent.tudominio.com)
    • apliarteAi.agentApiKey → tu clave de API
  4. El indicador mostrará "Agent" cuando esté conectado
  5. (Opcional) Ejecuta el comando "Indexar workspace (RAG)" desde la paleta de comandos para que el agente conozca tu proyecto

Atajos de teclado

Atajo Acción
Cmd + Shift + G Enviar selección al chat
Cmd + Shift + E Explicar código seleccionado

Paleta de comandos

Abre la paleta (Cmd + Shift + P) y escribe "ApliArte AI" para ver todos los comandos disponibles.


Configuración

Setting Descripción Default
apliarteAi.preset Preset de configuración (minimal, ecosystem-only, full-gentleman) minimal
apliarteAi.lmstudioEndpoint URL del servidor LM Studio http://localhost:1234/v1
apliarteAi.ollamaEndpoint URL del servidor Ollama http://localhost:11434
apliarteAi.language Idioma del agente (es / en) es
apliarteAi.agentEndpoint URL del backend Agent (modo Agent) (vacío)
apliarteAi.agentApiKey API key para autenticar con el backend Agent (vacío)

Arquitectura

apliarte-ai/
├── src/
│   ├── extension.ts          # Entry point, registra comandos y providers
│   ├── core/
│   │   ├── llmService.ts     # Cliente OpenAI-compatible (LM Studio/Ollama)
│   │   ├── agentService.ts   # Cliente del backend Agent (SSE streaming)
│   │   ├── localInference.ts # Inferencia local con transformers.js v4
│   │   ├── detector.ts       # Detección de LM Studio/Ollama en el sistema
│   │   ├── setup.ts          # Wizard de configuración inicial
│   │   ├── preset.ts         # System prompts preconfigurados
│   │   └── modelRecommender.ts # Recomendador de modelos según hardware
│   ├── tools/
│   │   └── executor.ts       # Ejecutor local de herramientas (read/write/search/terminal)
│   ├── ui/
│   │   ├── chatView.ts       # Webview del chat principal
│   │   ├── workspaceView.ts  # Explorador de workspace
│   │   └── quickActions.ts   # Acciones rápidas sobre código
│   └── utils/
│       └── logger.ts         # Sistema de logs
├── server/                   # Backend para modo Agent (Docker)
│   ├── main.py               # API FastAPI (chat proxy, RAG, auth)
│   ├── Dockerfile
│   ├── docker-compose.yml
│   └── requirements.txt
├── dist/                     # Bundle compilado (esbuild)
├── package.json              # Manifiesto de la extensión
└── esbuild.js                # Configuración de build

Stack técnico

  • TypeScript + esbuild (bundle de ~80 KB)
  • transformers.js v4 para inferencia local (instalado on-demand, no en el bundle)
  • API OpenAI-compatible para LM Studio/Ollama
  • FastAPI + Ollama embeddings para el backend Agent
  • VS Code Webview API para la interfaz del chat

Privacidad

ApliArte AI respeta tu privacidad por diseño:

  • Modo Local: El modelo corre dentro del proceso de VS Code usando transformers.js. Nada sale de tu máquina.
  • Modo Remoto: La comunicación es entre VS Code y tu servidor local (localhost). Nada sale de tu red.
  • Modo Agent: Tu código se envía a tu propio servidor (que tú controlas). Las herramientas (leer/escribir archivos, terminal) se ejecutan localmente en tu máquina — el servidor solo coordina con el modelo de IA. Este modo es opt-in: solo se activa si tú lo configuras.
  • Sin telemetría: No se recopila ningún dato de uso.
  • Sin cuentas: No se requiere registro ni login.

Roadmap

  • [x] v0.1 — Detección de LM Studio/Ollama
  • [x] v0.2 — Chat con streaming y markdown
  • [x] v0.3 — Workspace explorer, acciones rápidas, diff/apply, recomendador de modelos
  • [x] v0.4 — Inferencia local con transformers.js v4
  • [x] v0.5 — Modo Agent con backend propio (tool-calling, RAG, deploy en VPS)
  • [ ] v0.6 — Soporte MCP Client (Model Context Protocol) ⬅️ en desarrollo
  • [ ] v0.7 — Mejoras de UX, persistencia de conversaciones, multi-idioma
  • [ ] v0.8 — Quick-setup para servidores MCP populares (engram, GitHub, PostgreSQL…)
  • [ ] v1.0 — Release estable

📋 Roadmap técnico detallado: ROADMAP.md


Compatibilidad

  • VS Code >= 1.93.0
  • Cursor AI
  • Windsurf IDE
  • Antigravity
  • VS Codium
  • Windows / macOS / Linux

Contribuir

Las contribuciones son bienvenidas. Abre un issue o un pull request.

git clone https://github.com/erbolamm/apliarte-ai.git
cd apliarte-ai
npm install
npm run watch   # Desarrollo con hot-reload
# F5 en VS Code para lanzar la Extension Development Host

Autor

Javier Mateo (ApliArte) — github.com/erbolamm

💬 Una nota personal del autor / A personal note from the author

ℹ️ Nota: El texto siguiente es un mensaje personal del autor, escrito en varios idiomas para que pueda leerlo gente de todo el mundo. Esto no implica que el proyecto tenga soporte funcional completo en esos idiomas.

ℹ️ Note: The text below is a personal message from the author, written in several languages so people around the world can read it. This does not imply full multilingual feature support in those languages.

🇪🇸 Español

ApliArte AI nació de una frustración: todas las extensiones de IA para VS Code te piden una API key de pago o envían tu código a servidores externos. Yo quería algo que funcionara en MI máquina, con MIS modelos, sin depender de nadie.

Con transformers.js v4 conseguí que los modelos corran directamente dentro de VS Code — sin instalar LM Studio, sin Ollama, sin nada. Un click y funciona. Tu código nunca sale de tu ordenador.

Si eres desarrollador y valoras tu privacidad, esta herramienta es para vos. Es gratis, es open source, y siempre lo será.

🇬🇧 English

ApliArte AI was born out of frustration: every AI extension for VS Code requires a paid API key or sends your code to external servers. I wanted something that runs on MY machine, with MY models, without depending on anyone.

With transformers.js v4, I made models run directly inside VS Code — no LM Studio, no Ollama, nothing to install. One click and it works. Your code never leaves your computer.

If you're a developer who values privacy, this tool is for you. It's free, it's open source, and it always will be.

🇧🇷 Português

ApliArte AI nasceu de uma frustração: todas as extensões de IA para VS Code pedem uma API key paga ou enviam seu código para servidores externos. Eu queria algo que rodasse na MINHA máquina, com MEUS modelos, sem depender de ninguém.

Com transformers.js v4, consegui que os modelos rodem diretamente dentro do VS Code — sem instalar LM Studio, sem Ollama, sem nada. Um clique e funciona. Seu código nunca sai do seu computador.

Se você é desenvolvedor e valoriza sua privacidade, essa ferramenta é para você. É grátis, é open source, e sempre será.

🇫🇷 Français

ApliArte AI est né d'une frustration : toutes les extensions IA pour VS Code demandent une clé API payante ou envoient votre code vers des serveurs externes. Je voulais quelque chose qui tourne sur MA machine, avec MES modèles, sans dépendre de personne.

Avec transformers.js v4, j'ai fait tourner les modèles directement dans VS Code — pas de LM Studio, pas d'Ollama, rien à installer. Un clic et ça marche. Votre code ne quitte jamais votre ordinateur.

Si vous êtes développeur et que vous tenez à votre vie privée, cet outil est pour vous. C'est gratuit, c'est open source, et ça le restera toujours.

🇩🇪 Deutsch

ApliArte AI entstand aus Frustration: Jede KI-Erweiterung für VS Code verlangt einen kostenpflichtigen API-Schlüssel oder sendet Ihren Code an externe Server. Ich wollte etwas, das auf MEINEM Computer läuft, mit MEINEN Modellen, ohne von irgendjemandem abhängig zu sein.

Mit transformers.js v4 laufen die Modelle direkt in VS Code — kein LM Studio, kein Ollama, nichts zu installieren. Ein Klick und es funktioniert. Ihr Code verlässt niemals Ihren Computer.

Wenn Sie Entwickler sind und Ihre Privatsphäre schätzen, ist dieses Tool für Sie. Es ist kostenlos, es ist Open Source, und das wird es immer bleiben.

🇮🇹 Italiano

ApliArte AI è nato da una frustrazione: tutte le estensioni IA per VS Code richiedono una chiave API a pagamento o inviano il tuo codice a server esterni. Volevo qualcosa che funzionasse sulla MIA macchina, con i MIEI modelli, senza dipendere da nessuno.

Con transformers.js v4, ho fatto funzionare i modelli direttamente dentro VS Code — niente LM Studio, niente Ollama, niente da installare. Un click e funziona. Il tuo codice non lascia mai il tuo computer.

Se sei uno sviluppatore e tieni alla tua privacy, questo strumento è per te. È gratuito, è open source, e lo sarà sempre.

� Comparte

Si te gusta ApliArte AI, ayuda a que más gente lo conozca:

Compartir en Twitter Compartir en LinkedIn Compartir en Reddit Compartir en WhatsApp

�💖 Apoya el proyecto

Herramienta gratuita y open source. Si te ahorra tiempo, un café ayuda a mantener el desarrollo.

Plataforma Enlace
PayPal paypal.me/erbolamm
Ko-fi ko-fi.com/C0C11TWR1K
Twitch Tip streamelements.com/apliarte/tip

🌐 Sitio oficial · 📦 GitHub

Licencia

MIT — © 2026 ApliArte

  • Contact us
  • Jobs
  • Privacy
  • Manage cookies
  • Terms of use
  • Trademarks
© 2026 Microsoft