LLaMA Code Advisor (Extensión VS Code)
Cómo usar
- Descargá el modelo LLaMA
.gguf de https://ai.meta.com/resources/models-and-libraries/llama-downloads/
- Poné ambos archivos en las rutas indicadas en la configuración del microservicio.
- Iniciá el microservicio:
python llama_server.py
- En VS Code, seleccioná un bloque de código o dejá el cursor en el archivo.
- Ejecutá el comando:
LLaMA: Analizar código seleccionado (Ctrl+Shift+P y buscá el comando).
- Aparecerá la sugerencia de la IA en un panel lateral.
🛠️ Instalación:
- Instalá la extensión desde VS Code Marketplace.
- Instalá dependencias:
npm install
- Compilá:
npm run compile
📦 Requisitos previos:
- Modelo IA LLaMA-3 (descargar y compilar)
- Python 3.11 o superior
- Flask y otras dependencias especificadas en el proyecto.
| |