Copilot Local Models — Zero Cost AIPotencia GitHub Copilot con modelos de IA locales de coste cero usando LM Studio como motor principal. Conecta cualquier modelo GGUF directamente a VS Code — sin API keys, sin facturación, sin enviar código a servidores externos. ¿Qué hace este plugin?
Agentes Especialistas (.NET 10 Ready)El plugin incluye 26 agentes especializados. Se activan automáticamente según el contexto del workspace o mediante menciones explícas (
Unit Testing — 60% Coverage EnforcementEl agente
Stack recomendado: xUnit v3 + NSubstitute (evita licensing de Moq v5+) + FluentAssertions + bUnit (componentes Blazor). Requisitos PreviosInstalar LM Studio (motor principal)Descarga desde lmstudio.ai — disponible para Windows, macOS y Linux. Pasos de configuración:
LM Studio expone una API 100% compatible con OpenAI — el plugin la usa directamente sin ninguna configuración extra. Uso1. Chat Participant
|
| Comando | Descripción |
|---|---|
/models |
Lista los modelos cargados en LM Studio |
/switch <modelo> |
Cambia el modelo activo para la sesión |
/status |
Verifica el estado del servidor LM Studio |
/sdd |
Inicia el flujo Spec-Driven Development (9 pasos) |
/agent <id> |
Fuerza un especialista concreto (/agent csharp, /agent azure, etc.) |
/next |
Avanza al siguiente paso del flujo SDD activo |
/reset |
Cancela el flujo SDD activo |
2. Selector de Modelos de Copilot
Los modelos cargados en LM Studio aparecen automáticamente en el selector desplegable del chat de Copilot (junto a GPT-4o, Claude, etc.). Solo selecciona uno y úsalo normalmente — sin ningún comando adicional.
3. Comandos de la Paleta (Ctrl+Shift+P)
| Comando | Descripción |
|---|---|
Copilot Local: Listar Modelos Disponibles |
Ver modelos cargados en LM Studio |
Copilot Local: Cambiar Modelo Activo |
Quick pick para cambiar de modelo |
Copilot Local: Verificar Estado de Backends |
Estado del servidor LM Studio |
Copilot Local: Abrir Panel de Agentes |
Panel visual de especialistas disponibles |
Copilot Local: Configurar MCP |
Abrir/editar la configuración de MCP servers |
Configuración
{
// URL del servidor LM Studio (solo localhost por seguridad)
"copilotLocal.lmStudioUrl": "http://localhost:1234",
// Modelo por defecto (debe coincidir con uno cargado en LM Studio)
"copilotLocal.defaultModel": "qwen2.5-coder-7b-instruct",
// System prompt base enviado a todos los modelos
"copilotLocal.systemPrompt": "Eres un asistente de programación experto en .NET, C# y desarrollo web.",
// Tokens máximos de respuesta
"copilotLocal.maxTokens": 4096,
// Temperatura (0 = determinista, 1 = creativo)
"copilotLocal.temperature": 0.7,
// Mostrar indicador en la barra de estado
"copilotLocal.showStatusBar": true,
// Especialista forzado (sobrescribe la detección automática)
// "copilotLocal.activeSpecialist": "csharp",
// Ruta a un archivo .md de agente personalizado
// "copilotLocal.agentFilePath": "C:/mis-agentes/mi-agente.md",
// Auto-review de respuestas antes de mostrarlas
"copilotLocal.selfReview": false
}
Modelos Recomendados para LM Studio
Descarga desde la pestaña Discover de LM Studio:
| Modelo | Tamaño VRAM | Uso recomendado |
|---|---|---|
Qwen2.5-Coder-7B-Instruct |
~5GB | Código — el mejor relación calidad/tamaño |
Qwen2.5-Coder-14B-Instruct |
~9GB | Código avanzado con más contexto |
DeepSeek-Coder-V2-Lite-Instruct |
~9GB | Código + razonamiento técnico |
Llama-3.2-3B-Instruct |
~2GB | Ultraligero — consultas rápidas |
Mistral-7B-Instruct-v0.3 |
~5GB | General — razonamiento y chat |
Phi-3.5-mini-instruct |
~2.5GB | Ultraligero — bueno para C# y .NET |
Recomendación:
Qwen2.5-Coder-7B-Instructes el punto de entrada ideal para la mayoría de los casos de uso de este plugin.
Arquitectura
VS Code Copilot Chat
│
├── LanguageModelChatProvider (lmstudio-local)
│ └── src/localModelProvider.ts
│ └── src/lmStudioClient.ts → LM Studio API :1234/v1
│
└── ChatParticipant (@localai)
└── src/chatParticipant.ts
├── src/agentRouter.ts ← detecta especialista
├── src/sddWorkflow.ts ← flujo SDD
├── src/toolEngine.ts ← herramientas del agente
├── src/mcpDetector.ts ← estado MCP
└── assets/agents/*.md ← 27 definiciones de agentes
Instalar VSIX
# 1. Clonar e instalar dependencias
git clone https://github.com/mdesantis1984/copilot-lmstudio
cd copilot-lmstudio
npm install
# 2. Compilar y empaquetar
npm run package
# 3. Instalar en VS Code
code --install-extension copilot-lmstudio-*.vsix
Seguridad
- ✅ Solo se permiten conexiones a
localhost(previene SSRF) - ✅ Sin telemetría, sin datos enviados a terceros
- ✅ Todo el código y los modelos permanecen en tu máquina
- ✅ Sin API keys almacenadas ni requeridas
Licencia
MIT © ThisCloud Services