Sugestões inteligentes de código em tempo real. Detecta automaticamente sua IA: Gemini, OpenAI, Claude, LocalAI ou Ollama.
✨ Features Principais
- 🤖 Auto-Detecta IA — Gemini, OpenAI, Claude, LocalAI ou Ollama
- ⚡ Sugestões Inline — Aparecem enquanto você digita, substituem sugestões nativas (Tab para aceitar)
- 🔄 Fallback Inteligente — Alterna entre IAs automaticamente se uma falhar
- 💾 Cache Semântico — Reuusa sugestões inteligentemente (ZERO API calls em cache hit)
- 📡 Funciona 100% Offline — LocalAI/Ollama privado, sem limite de requests
- 🚀 Performance — <100ms latência com cache, 1-2s com API
- 💬 Multi-Linguagem — Python, TypeScript, JavaScript, C#, Rust, Go, Java, Ruby, PHP, C++, C
- ⚙️ Zero Config — Auto-detecta do
.env ou agent.py
- 🎯 Substitui Completions Nativas — Quando ativada, desativa IntelliSense padrão
- 🔘 Toggle Fácil — Click no botão CLAW na status bar ou
Ctrl+Alt+C
🚀 IAs Suportadas
| IA |
Auto-Detecta |
Custo |
Latência |
Recomendado |
| Google Gemini |
✅ |
$0.0002/token |
1-1.5s |
Melhor custo-benefício |
| OpenAI GPT-4 |
✅ |
$0.0005/token |
1-2s |
Mais poderoso |
| Anthropic Claude |
✅ |
$0.0003/token |
1-2s |
Equilibrado |
| LocalAI / Ollama |
✅ |
GRÁTIS |
150-400ms |
Melhor privacidade |
| Padrões + Templates |
✅ |
GRÁTIS |
<100ms |
Fallback local |
📦 Instalação
Via VS Code Marketplace (Recomendado)
- Abra VS Code
- Vá em Extensions (Ctrl+Shift+X ou Cmd+Shift+X)
- Procure por "CLAW"
- Clique em Install
- Extensão aparecerá como "✨ CLAW: ON" na status bar
Manual (Desenvolvimento)
git clone git@github.com:RafaelBatistaDev/CLAW---Sugestoes-Inline-com-IA-Automatica-VSCode.git
cd CLAW---Sugestoes-Inline-com-IA-Automatica-VSCode
npm install
npm run build:auto
code --install-extension clawrafaelia-suggestions-1.2.0.vsix
✅ Windows 10/11
- Suporte: ✅ Totalmente compatível
- Python: Requer Python 3.9+ (Microsoft Store ou python.org)
- Comando: Usa
python automaticamente
- agent.py:
C:\Users\{usuario}\bin\agent.py ou %USERPROFILE%\.local\bin\agent.py
✅ macOS (Intel/Apple Silicon)
- Suporte: ✅ Totalmente compatível
- Python: Requer Python 3.9+ (Homebrew:
brew install python3)
- Comando: Usa
python3 automaticamente
- agent.py:
~/.local/bin/agent.py ou ~/bin/agent.py
✅ Linux (Ubuntu, Fedora, Debian, etc)
- Suporte: ✅ Totalmente compatível
- Python: Python 3 geralmente pré-instalado
- Comando: Usa
python3 automaticamente
- agent.py:
~/.local/bin/agent.py ou ~/.claw/agent.py
Novo em v1.2.0: Detecção automática de SO para usar o comando Python correto! 🎉
🎮 Como Usar
Ativar/Desativar
Opção 1: Botão Status Bar
- Localize
✨ CLAW: ON (verde) na barra de status (canto inferior direito)
- Clique para toggle (muda para
🔴 CLAW: OFF quando desativado)
Opção 2: Atalho Teclado
- Pressione
Ctrl+Alt+C para toggle instant
Opção 3: Command Palette
- Pressione
Ctrl+Shift+P
- Digite
CLAW: Ativar/Desativar Sugestões
- Enter
Usar Sugestões
- Abrir Arquivo — Bra um arquivo de código (Python, JS, TS, etc.)
- Começar a Digitar — Escreva seu código normalmente
- Sugestão Aparece — Após ~500ms, sugestão cinzenta aparece
- Aceitar — Pressione
Tab ou clique
- Rejeitar — Pressione
Esc
Exemplo:
# Você digita:
def calculate_
# CLAW sugere:
def calculate_average(numbers):
return sum(numbers) / len(numbers)
# Tab para aceitar, Esc para rejeitar
⚙️ Configuração
Opção 1: Via Variáveis de Ambiente (Recomendado)
Crie ~/.env ou ~/.config/.env:
# Google Gemini
GEMINI_API_KEY=sua_chave_aqui
# OpenAI
OPENAI_API_KEY=sk-...
# Anthropic Claude
ANTHROPIC_API_KEY=sk-ant-...
# LocalAI / Ollama
LOCALAI_URL=http://localhost:8080
OLLAMA_URL=http://localhost:11434
Opção 2: Via Settings VS Code
Abra Settings (Ctrl+,) e procure por "CLAW":
{
"clawrafaelia.enabled": true, // Ativar/desativar
"clawrafaelia.debounceMs": 500, // Delay antes de sugerir
"clawrafaelia.maxTokens": 150, // Max tokens por sugestão
"clawrafaelia.enableLocalAI": true, // Usar LocalAI/Ollama
"clawrafaelia.logLevel": "info" // off|error|warn|info|debug
}
Opção 3: Via agent.py (Gemini)
# Coloque agent.py na raiz do projeto
python agent.py --api-key sua_chave_gemini
Opção 4: Offline (LocalAI/Ollama)
# Instale Ollama: https://ollama.ai
# Execute:
ollama run mistral # ou outro modelo
# CLAW detectará automaticamente em localhost:11434
📋 Comandos Disponíveis
Comandos Disponíveis
| Comando |
Função |
CLAW: Ativar/Desativar |
Ativa ou desativa sugestões |
CLAW: Limpar Cache |
Limpa cache de sugestões |
🛠️ Desenvolvimento
Build
npm install
npm run build # Build produção
npm run dev # Build com watch mode
Testes
npm test
npm run lint
Debug
- Abra este folder no VS Code
- Pressione
F5 para iniciar debug
- Uma nova janela VS Code abrirá com a extensão loaded
📁 Estrutura
src/
├── extension.ts # Entry point
├── inlineCompletionProvider.ts # Provider de sugestões
├── aiSelector.ts # Selector de IAs
├── aiProbe.ts # Proba IAs disponíveis
├── smartFallback.ts # Fallback inteligente
├── tokenCache.ts # Cache local
├── pathResolver.ts # Resolvedor de paths
├── agentManager.ts # Gerenciador de agent.py
└── logger.ts # Logging
package.json # Dependências
tsconfig.json # Config TypeScript
webpack.config.js # Build config
🐛 Troubleshooting
"Sugestões não aparecem"
Solução:
- Verificar se extensão está ON: veja status bar (✨ CLAW: ON)
- Verificar se IA está configurada
- Abrir Output:
View → Output → CLAW
- Limpar cache: Command →
CLAW: Limpar Cache
"Erro: API key inválida"
Solução:
- Verificar
.env ou variáveis ambiente
- Testar chave:
echo $GEMINI_API_KEY
- Reloadar VS Code:
Ctrl+Shift+P → Reload Window
"LocalAI/Ollama não conecta"
Solução:
- Verificar se está rodando:
curl http://localhost:11434
- Se não, instalar:
curl https://ollama.ai/install.sh | sh
- Executar:
ollama run mistral
- Reloadar:
Ctrl+Shift+P → Reload Window
"Extensão não ativa ao iniciar"
Solução:
- Ver erro:
View → Output → CLAW
- Verificar TypeScript compile:
npm run lint
- Reinstalar:
npm install
- Rebuild:
npm run build:auto
| Métrica |
Valor |
Notas |
| Load Time |
~300ms |
Na ativação |
| Suggestion Latency (API) |
1-2s |
Gemini/OpenAI |
| Suggestion Latency (Cache) |
<100ms |
Hit rate ~60% |
| Suggestion Latency (LocalAI) |
150-400ms |
Offline, sem limite |
| Memory Usage |
~50-150MB |
Com cache |
| CPU (Idle) |
<1% |
Esperando input |
| CPU (Suggesting) |
5-15% |
Durante processamento |
🔒 Privacidade & Segurança
✅ Modo 100% Privado
- Use LocalAI ou Ollama localmente
- Nenhum dado é enviado para internet
- Código executado na sua máquina
✅ Sem Telemetria
- CLAW não coleta dados de uso
- Sem tracking, sem analytics
- Open source: verifique o código
✅ API Keys Seguras
- Armazenadas em
~/.env (não commitado)
- Nunca expose em logs
- Git ignore configurado
⚠️ API Online
- Se usar Gemini/OpenAI/Claude
- Sugestões são enviadas para servidores deles
- Revisar política de privacidade deles
📄 Licença
MIT License © 2026 Rafael Batista
Você é livre para:
- ✅ Usar comercialmente
- ✅ Modificar código
- ✅ Distribuir
- ✅ Usar privadamente
Veja LICENSE para detalhes completos.
👤 Autor
Rafael Batista
🤝 Contribuindo
Contribuições são bem-vindas! Por favor:
- Fork o projeto
- Crie uma branch (
git checkout -b feature/MinhaFeature)
- Commit (
git commit -m 'Add MinhaFeature')
- Push (
git push origin feature/MinhaFeature)
- Abra um Pull Request
⭐ Apoiar
Se gostou do projeto:
- ⭐ Dê uma estrela
- 🐛 Reporte bugs
- 💡 Sugira features
- 📢 Compartilhe com amigos