Auto Git Commit - DeepSeek(或其他) & Ollama
使用 AI 自動生成 Git commit message 的 VS Code 擴展,支援 DeepSeek(或其他) 和 Ollama 兩種 AI 服務。
功能特色
- 🤖 支援 DeepSeek AI 服務
- 🐳 支援本地 Ollama 服務
- 🌍 支援中英文 commit message
- ⚡ 自動檢測 Git 變更
- 🔧 可配置的 AI 參數
- 📝 遵循 conventional commits 格式
安裝
- 在 VS Code 中按
Ctrl+Shift+X 開啟擴展面板
- 搜尋 "auto-git-commit-deepseek"
- 點擊安裝
使用方法
1. 選擇 AI 服務類型
在開始使用前,您需要先選擇要使用的 AI 服務:
- 按
Ctrl+Shift+P 開啟命令面板
- 輸入 "AI: Switch AI Service Type"
- 選擇以下其中一種服務:
- DeepSeek AI 服務: 需要 API Key,使用雲端 AI 服務
- Ollama 本地服務: 不需要 API Key,使用本地 AI 服務
2. 使用 DeepSeek 服務
設定 DeepSeek API Key:
- 選擇 DeepSeek 服務後,系統會詢問是否需要設定 API Key
- 選擇 "是" 來設定新的 API Key
- 或使用 "AI: Clear AI API Key" 命令來設定
生成 commit message:
- 按
Ctrl+Shift+P 開啟命令面板
- 輸入 "AI: Gen Commit Message"
- 或使用快捷鍵(可在設定中配置)
3. 使用 Ollama 服務
安裝並啟動 Ollama:
# 安裝 Ollama
curl -fsSL https://ollama.ai/install.sh | sh
# 啟動 Ollama 服務
ollama serve
# 下載模型(例如 xiaowangge/deepseek-v3-qwen2.5:32b
ollama pull xiaowangge/deepseek-v3-qwen2.5:32b
配置 Ollama 設定:
- 在 VS Code 設定中選擇 AI 服務類型為 "ollama"
- 設定 Ollama 服務地址(預設:http://localhost:11434)
- 選擇要使用的模型
生成 commit message:
- 使用相同的命令 "AI: Gen Commit Message"
配置選項
AI 服務類型
deepseekCommit.aiServiceType : 選擇 AI 服務類型
deepseek : 使用 DeepSeek 服務
ollama : 使用本地 Ollama 服務
DeepSeek 配置
deepseekCommit.url : DeepSeek API 服務地址
deepseekCommit.model : AI 模型名稱
deepseekCommit.temperature : 模型溫度設定 (0-2)
deepseekCommit.maxTokens : 最大 token 數 (1-4096)
Ollama 配置
deepseekCommit.ollama.url : Ollama 服務地址
deepseekCommit.ollama.model : Ollama 模型名稱
deepseekCommit.ollama.temperature : 模型溫度設定 (0-2)
deepseekCommit.ollama.maxTokens : 最大 token 數 (1-4096)
通用配置
deepseekCommit.autoPush : 提交後自動推送
deepseekCommit.autoAdd : 自動添加檔案
deepseekCommit.language : Commit message 語言 (en/zh)
deepseekCommit.excludeFiles : 排除的檔案類型
deepseekCommit.excludePatterns : 排除的程式碼模式
命令
ai.generateCommit : 生成 commit message
ai.clearApiKey : 清除 AI API Key
ai.testConnection : 測試 AI 服務連接
ai.resetConfig : 重置擴展配置
ai.switchService : 切換 AI 服務類型
測試連接
使用 "AI: Test AI Service Connection" 命令來測試:
- DeepSeek 服務:驗證 API Key 和網路連接
- Ollama 服務:驗證本地服務是否正在運行
故障排除
Ollama 連接問題
確認 Ollama 服務正在運行:
curl http://localhost:11434/api/tags
檢查防火牆設定,確保端口 11434 可訪問
確認模型已下載:
ollama list
DeepSeek 連接問題
- 檢查 API Key 是否正確
- 確認網路連接正常
- 檢查 API 配額是否足夠
開發
# 安裝依賴
npm install
# 編譯
npm run compile
# 打包擴展
npm run package
授權
MIT License
貢獻
歡迎提交 Issue 和 Pull Request!
| |