LANCODE v2
Türkçe doğal dil cümleleriyle full-stack uygulama geliştir.

Kurulum (3 Adım)
1. Ollama Kur (Ücretsiz, API Key Gerekmez)
Windows: ollama.ai/download adresinden .exe indir ve kur.
macOS: ollama.ai/download adresinden .dmg indir ve kur.
Linux:
curl -fsSL https://ollama.ai/install.sh | sh
2. Modeli İndir (Bir Kere)
ollama pull llama3.1:8b
Yaklaşık 4.7 GB indirir. Bundan sonra internet gerekmez.
3. Extension'ı Kur
VSCode → Extensions (Ctrl+Shift+X) → "LANCODE" ara → Install
Kullanım
- Ollama'yı başlat: terminalde
ollama serve
.lan uzantılı dosya oluştur
- Türkçe yaz
Ctrl+Shift+R ile derle
# Portföyöm
hero:
lacivert arka plan
büyük başlık: "Merhaba, ben Berat"
mor buton: "Projelerimi Gör"
3 proje kartı yan yana:
hover efektiyle, GitHub linki
Kısayollar
| Komut |
Kısayol |
| Derle (Full Stack) |
Ctrl+Shift+R |
| Dosyaları Diske Yaz |
Ctrl+Shift+S |
| Komut Paleti |
Ctrl+Shift+P → LANCODE |
Ayarlar
Ctrl+, açın, "lancode" aratın.
| Ayar |
Varsayılan |
Açıklama |
lancode.provider |
ollama |
AI motoru — değiştirme gerek yok |
lancode.ollamaModel |
llama3.1:8b |
Model adı |
lancode.ollamaHost |
localhost |
Ollama adresi |
lancode.autoWriteFiles |
false |
Otomatik diske yaz |
lancode.outputFolder |
output |
Çıktı klasörü |
Not: API anahtarı gerekmez. LANCODE tamamen ücretsiz ve offline çalışır.
Model Seçenekleri
| Model |
Boyut |
Hız |
Ne Zaman? |
llama3.2:3b |
2 GB |
Çok hızlı |
Zayıf bilgisayar |
llama3.1:8b |
4.7 GB |
Hızlı |
Önerilen |
codellama:13b |
7.4 GB |
Orta |
Kod kalitesi öncelikliyse |
Model değiştirmek: Ctrl+, → lancode.ollamaModel
Sorun Giderme
"Ollama çalışmıyor" → Terminalde ollama serve çalıştır.
"Model bulunamadı" → ollama pull llama3.1:8b çalıştır.
"JSON parse hatası" → .lan dosyasını daha sade yaz, özel karakterleri azalt.
Derleme yavaş → lancode.ollamaModel ayarını llama3.2:3b yap.
Lisans
MIT © 2025 LANCODE