Skip to content
| Marketplace
Sign in
Visual Studio Code>Other>Ollama Local ChatNew to Visual Studio Code? Get it now.
Ollama Local Chat

Ollama Local Chat

MauroKrekels

|
12 installs
| (1) | Free
Chat with Ollama locally in VS Code
Installation
Launch VS Code Quick Open (Ctrl+P), paste the following command, and press enter.
Copied to clipboard
More Info

Ollama VS Code Extension

Een VS Code extensie om te chatten met Ollama lokaal, vergelijkbaar met GitHub Copilot maar dan met je eigen lokale Ollama instance.

Features

  • 💬 Chat interface in VS Code
  • 🔌 Automatische verbinding met lokale Ollama instance
  • ⚡ Streaming responses voor real-time antwoorden
  • 🎨 Moderne UI die past bij VS Code thema's
  • ⚙️ Configureerbare model selectie

Vereisten

  • Ollama moet lokaal geïnstalleerd en draaiend zijn
  • VS Code versie 1.74.0 of hoger

Installatie

  1. Clone deze repository
  2. Open de folder in VS Code
  3. Installeer dependencies: npm install
  4. Compileer de extensie: npm run compile
  5. Druk op F5 om de extensie te testen in een nieuwe VS Code window

Gebruik

  1. Zorg dat Ollama lokaal draait (ollama serve)
  2. Open de command palette (Cmd+Shift+P / Ctrl+Shift+P)
  3. Typ "Open Ollama Chat" en selecteer de command
  4. Start met chatten!

Configuratie

Je kunt de volgende instellingen aanpassen in VS Code settings:

  • ollama.baseUrl: De URL van je Ollama API (standaard: http://localhost:11434)
  • ollama.model: Het standaard model om te gebruiken (standaard: llama2)

Development

npm install
npm run compile
npm run watch

Druk op F5 in VS Code om de extensie te testen.

License

MIT

  • Contact us
  • Jobs
  • Privacy
  • Manage cookies
  • Terms of use
  • Trademarks
© 2025 Microsoft