Skip to content
| Marketplace
Sign in
Visual Studio Code>Programming Languages>TabAutocompleteNew to Visual Studio Code? Get it now.
TabAutocomplete

TabAutocomplete

JackyWong

|
28 installs
| (0) | Free
使用本地或云端模型进行智能代码补全
Installation
Launch VS Code Quick Open (Ctrl+P), paste the following command, and press enter.
Copied to clipboard
More Info

TabAutoComplete - VSCode智能代码补全扩展

English Version

简介

TabAutoComplete 是一个强大的 VSCode 扩展,它可以连接到本地或云端的 AI 模型(支持 Ollama、DeepSeek、OpenAI 和 SiliconFlow),提供智能的、上下文相关的代码补全功能。通过使用最先进的大语言模型,为您提供更智能、更准确的代码建议。

演示

演示

功能特点

  • 🚀 智能代码补全 - 基于上下文自动补全代码,支持多种编程语言
  • 🔄 Tab键补全 - 使用Tab键快速接受补全建议
  • 🌐 多模型支持 - 支持本地和云端AI模型
  • ⚙️ 高度可定制 - 灵活配置模型参数、触发时机和上下文大小
  • 📚 智能上下文 - 自动分析代码上下文,提供更相关的补全
  • 💾 智能缓存 - 缓存常用代码片段,提高响应速度
  • 🎯 文件类型过滤 - 可配置启用/禁用特定文件类型的代码补全

前提条件

使用此扩展前,您需要:

  1. 对于本地模型:安装并运行 Ollama
  2. 对于云端模型:获取相应服务商(DeepSeek、OpenAI 或 SiliconFlow)的 API 密钥

安装

  1. 在 VSCode 扩展市场中搜索 "TabAutoComplete"
  2. 点击安装
  3. 重启 VSCode(如需要)

快速开始

  1. 确保您选择的 AI 服务已正确配置
  2. 打开 VSCode 设置,搜索 "TabAutoComplete" 配置你的模型和首选
  3. 开始编码,输入一些代码,稍等片刻(默认300ms),自动补全将会出现
  4. 按 Tab 键接受建议的代码
  5. 按 Esc 键忽略补全建议

配置选项

配置参考示例

{
    "tabAutoComplete.models": [
        {
            "title": "qwen2.5-coder:7b",
            "provider": "ollama",
            "model": "qwen2.5-coder:7b",
            "apiBase": "http://localhost:11434"
        },
        {
            "title": "Qwen/Qwen2.5-Coder-7B-Instruct",
            "provider": "openai",
            "model": "Qwen/Qwen2.5-Coder-7B-Instruct",
            "apiBase": "https://api.siliconflow.cn/v1",
            "apiKey": "xxx"
        }
    ],
    "tabAutoComplete.selectedModelIndex": 1,
    "tabAutoComplete.model.selectedModelName": "Qwen/Qwen2.5-Coder-7B-Instruct"
}

上述配置展示了如何同时配置本地Ollama模型和云端模型(以SiliconFlow为例)。您可以根据需要配置多个模型,并通过selectedModelIndex选择当前使用的模型。

常见问题

Q: 无法连接到 AI 服务

确保:

  1. 对于本地模型,服务正在运行
  2. 对于云端模型,API密钥正确
  3. API基础URL配置正确
  4. 选择的模型可用

Q: 代码补全速度较慢

可以尝试:

  • 使用更小的模型
  • 减少上下文字符数(context.maxLines)
  • 启用缓存功能
  • 增加触发延迟
  • 调整防抖延迟时间

Q: 生成的代码质量不理想

建议:

  • 调低模型温度
  • 使用专门的代码模型
  • 适当增加上下文字符数
  • 调整提示模板

隐私说明

  • 对于本地模型:所有代码和数据仅与本地服务通信
  • 对于云端模型:数据仅发送到您配置的AI服务提供商
  • 缓存数据仅存储在本地

许可证

  • MIT

贡献

  • 欢迎提交 Issue 和 Pull Request

致谢

  • Ollama 项目
  • Visual Studio Code
  • Contact us
  • Jobs
  • Privacy
  • Manage cookies
  • Terms of use
  • Trademarks
© 2025 Microsoft