TabAutoComplete - VSCode智能代码补全扩展
English Version
简介
TabAutoComplete 是一个强大的 VSCode 扩展,它可以连接到本地或云端的 AI 模型(支持 Ollama、DeepSeek、OpenAI 和 SiliconFlow),提供智能的、上下文相关的代码补全功能。通过使用最先进的大语言模型,为您提供更智能、更准确的代码建议。
演示

功能特点
- 🚀 智能代码补全 - 基于上下文自动补全代码,支持多种编程语言
- 🔄 Tab键补全 - 使用Tab键快速接受补全建议
- 🌐 多模型支持 - 支持本地和云端AI模型
- ⚙️ 高度可定制 - 灵活配置模型参数、触发时机和上下文大小
- 📚 智能上下文 - 自动分析代码上下文,提供更相关的补全
- 💾 智能缓存 - 缓存常用代码片段,提高响应速度
- 🎯 文件类型过滤 - 可配置启用/禁用特定文件类型的代码补全
前提条件
使用此扩展前,您需要:
- 对于本地模型:安装并运行 Ollama
- 对于云端模型:获取相应服务商(DeepSeek、OpenAI 或 SiliconFlow)的 API 密钥
安装
- 在 VSCode 扩展市场中搜索 "TabAutoComplete"
- 点击安装
- 重启 VSCode(如需要)
快速开始
- 确保您选择的 AI 服务已正确配置
- 打开 VSCode 设置,搜索 "TabAutoComplete" 配置你的模型和首选
- 开始编码,输入一些代码,稍等片刻(默认300ms),自动补全将会出现
- 按
Tab 键接受建议的代码
- 按
Esc 键忽略补全建议
配置选项
配置参考示例
{
"tabAutoComplete.models": [
{
"title": "qwen2.5-coder:7b",
"provider": "ollama",
"model": "qwen2.5-coder:7b",
"apiBase": "http://localhost:11434"
},
{
"title": "Qwen/Qwen2.5-Coder-7B-Instruct",
"provider": "openai",
"model": "Qwen/Qwen2.5-Coder-7B-Instruct",
"apiBase": "https://api.siliconflow.cn/v1",
"apiKey": "xxx"
}
],
"tabAutoComplete.selectedModelIndex": 1,
"tabAutoComplete.model.selectedModelName": "Qwen/Qwen2.5-Coder-7B-Instruct"
}
上述配置展示了如何同时配置本地Ollama模型和云端模型(以SiliconFlow为例)。您可以根据需要配置多个模型,并通过selectedModelIndex 选择当前使用的模型。
常见问题
Q: 无法连接到 AI 服务
确保:
- 对于本地模型,服务正在运行
- 对于云端模型,API密钥正确
- API基础URL配置正确
- 选择的模型可用
Q: 代码补全速度较慢
可以尝试:
- 使用更小的模型
- 减少上下文字符数(
context.maxLines )
- 启用缓存功能
- 增加触发延迟
- 调整防抖延迟时间
Q: 生成的代码质量不理想
建议:
- 调低模型温度
- 使用专门的代码模型
- 适当增加上下文字符数
- 调整提示模板
隐私说明
- 对于本地模型:所有代码和数据仅与本地服务通信
- 对于云端模型:数据仅发送到您配置的AI服务提供商
- 缓存数据仅存储在本地
许可证
贡献
致谢
| |