Skip to content
| Marketplace
Sign in
Visual Studio Code>Programming Languages>Ollama Chat AgentNew to Visual Studio Code? Get it now.
Ollama Chat Agent

Ollama Chat Agent

Abel Lopes

|
84 installs
| (0) | Free
Chat com modelos Ollama na sua rede local - Agente de código com capacidade de criar, editar, ler e deletar arquivos
Installation
Launch VS Code Quick Open (Ctrl+P), paste the following command, and press enter.
Copied to clipboard
More Info

Ollama Chat Agent

Uma extensão VS Code para chat com modelos Ollama rodando na sua rede local.

Funcionalidades

🤖 Chat com IA - Converse com modelos Ollama diretamente no VS Code

🧠 Análise Inteligente de Código - O assistente lê automaticamente o código do seu workspace quando você faz perguntas sobre o projeto, permitindo:

  • Análise completa do código-fonte
  • Sugestões contextualizadas baseadas na sua implementação
  • Identificação de bugs e problemas
  • Explicações detalhadas do funcionamento do código
  • Contexto automático do arquivo ativo e seleção de código
  • Captura automática de erros e warnings do VS Code

📁 Agente de Código - O assistente pode:

  • ✅ Criar arquivos no seu projeto
  • ✏️ Editar arquivos existentes (buscar e substituir)
  • 📖 Ler arquivos existentes
  • 📂 Listar diretórios
  • 🗑️ Deletar arquivos
  • ⚡ Executar comandos no terminal

⏹️ Controle de Resposta - Botão para cancelar respostas em andamento

Atalhos de Teclado

Atalho Comando
Ctrl+Shift+O (Mac: Cmd+Shift+O) Abrir Chat
Ctrl+Shift+E (Mac: Cmd+Shift+E) Explicar código selecionado
Ctrl+Shift+R (Mac: Cmd+Shift+R) Refatorar código selecionado

Menu de Contexto

Clique com botão direito em código selecionado para:

  • Ollama: Explicar Código Selecionado
  • Ollama: Refatorar Código Selecionado

Requisitos

  • Ollama instalado e rodando (local ou na rede)
  • Pelo menos um modelo instalado (ex: ollama pull qwen2.5-coder)

Configuração

Acesse as configurações do VS Code e configure:

  • ollamaAgent.serverUrl: URL do servidor Ollama (padrão: http://192.168.1.86:11434)
  • ollamaAgent.model: Modelo a ser usado (padrão: qwen2.5-coder:latest)
  • ollamaAgent.temperature: Temperatura do modelo (padrão: 0.7)

Como usar

  1. Clique no ícone do Ollama Chat na barra lateral
  2. Digite sua mensagem e pressione Enter
  3. O assistente pode criar e modificar arquivos automaticamente quando solicitado
  4. Use os atalhos de teclado para ações rápidas

Análise Automática do Workspace

Quando você faz perguntas relacionadas ao código do projeto, o agente automaticamente:

  1. Escaneia todos os arquivos de código do workspace
  2. Captura o arquivo ativo no editor e qualquer texto selecionado
  3. Coleta erros e warnings do VS Code
  4. Exibe "🧠 Pensando... Analisando o código do workspace..."
  5. Carrega o contexto completo para responder com precisão

Extensões suportadas: .ts, .tsx, .js, .jsx, .py, .java, .json, .html, .css, .md, e muitos outros.

Pastas ignoradas automaticamente: node_modules, .git, dist, build, __pycache__, venv, etc.

Exemplos de uso

"Analise o código do projeto e me explique como funciona"
"Quais melhorias você sugere para este código?"
"Encontre possíveis bugs na implementação"
"Corrija os erros do projeto"
"Crie um arquivo hello.js que imprime Hello World"
"Edite o arquivo app.js e adicione um console.log no início"
"Liste os arquivos na pasta src"
"Leia o conteúdo do package.json"
"Execute npm install express"

Licença

MIT

  • Contact us
  • Jobs
  • Privacy
  • Manage cookies
  • Terms of use
  • Trademarks
© 2026 Microsoft