Ollama VS Code Extension
Een VS Code extensie om te chatten met Ollama lokaal, vergelijkbaar met GitHub Copilot maar dan met je eigen lokale Ollama instance.
Features
- 💬 Chat interface in VS Code
- 🔌 Automatische verbinding met lokale Ollama instance
- ⚡ Streaming responses voor real-time antwoorden
- 🎨 Moderne UI die past bij VS Code thema's
- ⚙️ Configureerbare model selectie
Vereisten
- Ollama moet lokaal geïnstalleerd en draaiend zijn
- VS Code versie 1.74.0 of hoger
Installatie
- Clone deze repository
- Open de folder in VS Code
- Installeer dependencies:
npm install
- Compileer de extensie:
npm run compile
- Druk op F5 om de extensie te testen in een nieuwe VS Code window
Gebruik
- Zorg dat Ollama lokaal draait (
ollama serve)
- Open de command palette (Cmd+Shift+P / Ctrl+Shift+P)
- Typ "Open Ollama Chat" en selecteer de command
- Start met chatten!
Configuratie
Je kunt de volgende instellingen aanpassen in VS Code settings:
ollama.baseUrl: De URL van je Ollama API (standaard: http://localhost:11434)
ollama.model: Het standaard model om te gebruiken (standaard: llama2)
Development
npm install
npm run compile
npm run watch
Druk op F5 in VS Code om de extensie te testen.
License
MIT
| |