Skip to content
| Marketplace
Sign in
Visual Studio Code>AI>AI Chat ModelsNew to Visual Studio Code? Get it now.
AI Chat Models

AI Chat Models

VicBilibily

|
2,296 installs
| (3) | Free
为 GitHub Copilot Chat 提供 智谱AI、火山方舟、MiniMax、MoonshotAI、DeepSeek、快手万擎、阿里云百炼 模型支持的扩展,并提供 `OpenAI / Anthropic Compatible` 自定义模型支持。
Installation
Launch VS Code Quick Open (Ctrl+P), paste the following command, and press enter.
Copied to clipboard
More Info

GCMP - 提供多个国内原生大模型提供商支持的扩展

CI Version Installs Downloads License

通过集成国内主流原生大模型提供商,为开发者提供更加丰富、更适合本土需求的 AI 编程助手选择。目前已内置支持 智谱AI、火山方舟、MiniMax、MoonshotAI、DeepSeek、快手万擎、阿里云百炼 等原生大模型提供商。此外,扩展插件已适配支持 OpenAI 与 Anthropic 的 API 接口兼容模型,支持自定义接入任何提供兼容接口的第三方云服务模型。

📣 参数调整公告

  • outputThinking 已移除:只要模型/网关返回了 thinking(思考内容),扩展将默认输出思考内容。
  • includeThinking 目前仍然根据配置生效:用于控制多轮对话时,是否将 thinking 作为上下文继续传递给模型。
  • includeThinking 计划在 0.18.0 版本移除:移除后将根据模型是否输出 thinking,在当前轮次对话默认附带思考内容。

🚀 快速开始

1. 安装扩展

在VS Code扩展市场搜索 GCMP 并安装,或使用扩展标识符:vicanent.gcmp

2. 开始使用

  1. 打开 VS Code 的 GitHub Copilot Chat 面板
  2. 在模型选择器的底部选择 管理模型,从弹出的模型提供商列表中选择所需的提供商
  3. 若第一次使用,选择提供商后会要求设置 ApiKey,根据提示完成API密钥配置后,即可返回模型选择器添加并启用模型
  4. 在模型选择器中选中目标模型后,即可开始与AI助手进行对话

🤖 内置的AI大模型提供商

智谱AI - GLM系列

  • 编程套餐:GLM-4.7(Thinking)、GLM-4.6、GLM-4.6V(Thinking)、GLM-4.5-Air
    • 用量查询:已支持状态栏显示周期剩余用量,可查看 GLM Coding Plan 用量信息。
  • 按量计费:GLM-4.7、GLM-4.7-FlashX、GLM-4.6、GLM-4.6V、GLM-4.5-Air
  • 免费模型:GLM-4.7-Flash、GLM-4.6V-Flash
  • 国际站点:已支持国际站(z.ai)切换设置。
  • 搜索功能:集成 联网搜索MCP 及 Web Search API,支持 #zhipuWebSearch 进行联网搜索。
    • 默认启用 联网搜索MCP 模式,编程套餐支持:Lite(100次/月)、Pro(1000次/月)、Max(4000次/月)。
    • 可通过设置关闭 联网搜索MCP 模式以使用 Web Search API 按次计费。

火山方舟 - 豆包大模型

  • Coding Plan 套餐:Doubao-Seed-Code、Ark-Code-Latest(Thinking)
  • 豆包系列:Doubao-Seed-1.8、Doubao-Seed-1.6、Doubao-Seed-1.6-Lite
  • 协作奖励计划:GLM-4.7、DeepSeek-V3.2(Thinking)、DeepSeek-V3.1-terminus、Kimi-K2-250905、Kimi-K2-Thinking-251104
  • 上下文缓存实验性支持:Doubao-Seed-1.8(Caching)、GLM-4.7(Caching)
    • 使用此模式需要在后台手动开通模型的上下文缓存功能。
    • 当前内置实现使用 Responses API 的 previous_response_id 匹配缓存模式,使用过程中不支持模型切换。
    • 在首次对话请求时默认创建 2h 上下文缓存窗口,但插件内部维护 1小时 上下文历史记录 (最大500次模型响应) 用于上下文用于缓存匹配,。

MiniMax

  • Coding Plan 编程套餐:MiniMax-M2.1、MiniMax-M2
    • 搜索功能:集成 Coding Plan 联网搜索调用工具,支持通过 #minimaxWebSearch 进行联网搜索。
    • 用量查询:已支持状态栏显示周期使用比例,可查看 Coding Plan 编程套餐用量信息。
    • 国际站点:已支持国际站 Coding Plan 编程套餐使用。
  • 按量计费:MiniMax-M2.1、MiniMax-M2.1-Lightning、MiniMax-M2

MoonshotAI - Kimi K2系列

  • 会员权益:Kimi 会员计划 套餐的附带的 Kimi For Coding,当前使用 Roo Code 发送 Anthropic 请求。
    • 用量查询:已支持状态栏显示周期剩余额度,可查看赠送的每周剩余用量及每周重置时间。
  • 预置模型:Kimi-K2-0905-Preview、Kimi-K2-Turbo-Preview、Kimi-Latest
    • 余额查询:已支持状态栏显示当前账户额度,可查看账户余额状况。
  • 思考模型:Kimi-K2-Thinking、Kimi-K2-Thinking-Turbo

DeepSeek - 深度求索

  • 预置模型:DeepSeek-V3.2(Reasoner)
    • 余额查询:已支持状态栏显示当前账户额度,可查看账户余额详情。
  "chat.agent.thinkingStyle": "expanded", // 使用 DeepSeek-V3.2 (Reasoner) 时建议展开思考内容

快手万擎 - StreamLake

  • KwaiKAT Coding Plan:KAT-Coder-Pro-V1

  • KAT-Coder系列:KAT-Coder-Pro-V1(按量付费)、KAT-Coder-Air-V1

阿里云百炼 - 通义大模型

  • Coding Plan 套餐:Qwen3-Coder-Plus
  • 通义千问系列:Qwen3-Max、Qwen3-VL-Plus、Qwen3-VL-Flash、Qwen-Plus、Qwen-Flash

实验性支持 CLI 认证提供商

展开查看 CLI 认证支持提供商说明

心流AI - iFlow CLI

阿里巴巴旗下的AI平台,支持通过 iFlow CLI 进行 使用 iFlow 登录 认证(需要本地安装 iFlow CLI)。

npm install -g @iflow-ai/iflow-cli@latest
  • 智谱AI系列:GLM-4.7(Thinking)
  • DeepSeek系列:DeepSeek-V3.2-Reasoner
  • 通义千问系列:Qwen3-Coder-Plus
  • Kimi系列:Kimi-K2-Thinking、Kimi-K2-0905
  • MiniMax系列:MiniMax-2.1
  • iFlow系列:iFlow-ROME-30BA3B(Preview)

Qwen Code - Qwen Code CLI

阿里云通义千问官方编程助手,支持通过 Qwen Code CLI 进行 Qwen Auth 认证(需要本地安装 Qwen Code CLI)。

npm install -g @qwen-code/qwen-code@latest
  • 支持模型:Qwen3-Coder-Plus、Qwen3-VL-Plus

Gemini - Gemini CLI

Google 官方 Gemini API 命令行工具,支持通过 Gemini CLI 进行 Login with Google 认证(需要本地安装 Gemini CLI)。

npm install -g @google/gemini-cli@latest
  • 支持模型:Gemini 2.5 Pro、Gemini 2.5 Flash
  • 预览模型:Gemini 3 Pro Preview、Gemini 3 Flash Preview

⚙️ 高级配置

GCMP 支持通过 VS Code 设置来自定义AI模型的行为参数,让您获得更个性化的AI助手体验。

📝 提示:settings.json 所有参数修改会立即生效。

展开查看高级配置说明

通用模型参数 及 额外支持功能 配置

{
    "gcmp.temperature": 0.1, // 0.0-2.0
    "gcmp.topP": 1.0, // 0.0-1.0
    "gcmp.maxTokens": 16000, // 32-256000
    "gcmp.editToolMode": "claude", // claude/gpt-5/none
    "gcmp.rememberLastModel": true, // 记住上次使用的模型
    "gcmp.zhipu.search.enableMCP": true // 启用`联网搜索MCP`(Coding Plan专属)
}

提供商配置覆盖

GCMP 支持通过 gcmp.providerOverrides 配置项来覆盖提供商的默认设置,包括 baseUrl、customHeader、模型配置等。

配置示例:

{
    "gcmp.providerOverrides": {
        "dashscope": {
            "models": [
                {
                    "id": "deepseek-v3.2", // 增加额外模型:不在提示可选选项,但允许自定义新增
                    "name": "Deepseek-V3.2 (阿里云百炼)",
                    "tooltip": "DeepSeek-V3.2是引入DeepSeek Sparse Attention(一种稀疏注意力机制)的正式版模型,也是DeepSeek推出的首个将思考融入工具使用的模型,同时支持思考模式与非思考模式的工具调用。",
                    // "sdkMode": "openai", // 阿里云百炼已默认继承提供商设置,其他提供商模型可按需设置
                    // "baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1",
                    "maxInputTokens": 128000,
                    "maxOutputTokens": 16000,
                    "capabilities": {
                        "toolCalling": true,
                        "imageInput": false
                    }
                }
            ]
        }
    }
}

🔌 OpenAI / Anthropic Compatible 自定义模型支持

GCMP 提供 OpenAI / Anthropic Compatible Provider,用于支持任何 OpenAI 或 Anthropic 兼容的 API。通过 gcmp.compatibleModels 配置,您可以完全自定义模型参数,包括扩展请求参数。

  1. 通过 GCMP: Compatible Provider 设置 命令启动配置向导。
  2. 在 settings.json 设置中编辑 gcmp.compatibleModels 配置项。
展开查看自定义模型配置说明

自定义模型内置已知提供商ID及显示名称列表

聚合转发类型的提供商可提供内置特殊适配,不作为单一提供商提供。
若需要内置或特殊适配的请通过 Issue 提供相关信息。

提供商ID 提供商名称 提供商描述 余额查询
aiping AI Ping 用户账户余额
aihubmix AIHubMix 可立享 10% 优惠 ApiKey余额
openrouter OpenRouter 用户账户余额
siliconflow 硅基流动 用户账户余额

配置示例:

{
    "gcmp.compatibleModels": [
        {
            "id": "glm-4.6",
            "name": "GLM-4.6",
            "provider": "zhipu",
            "model": "glm-4.6",
            "sdkMode": "openai",
            "baseUrl": "https://open.bigmodel.cn/api/coding/paas/v4",
            // "sdkMode": "anthropic",
            // "baseUrl": "https://open.bigmodel.cn/api/anthropic",
            "maxInputTokens": 128000,
            "maxOutputTokens": 4096,
            // "includeThinking": true, // 多轮对话消息是否必须包含思考内容(默认false)
            "capabilities": {
                "toolCalling": true, // Agent模式下模型必须支持工具调用
                "imageInput": false
            },
            // customHeader 和 extraBody 可按需设置
            "customHeader": {
                "X-Model-Specific": "value",
                "X-Custom-Key": "${APIKEY}"
            },
            "extraBody": {
                "temperature": 0.1,
                "top_p": 0.9,
                // "top_p": null, // 部分提供商不支持同时设置 temperature 和 top_p
                "thinking": { "type": "disabled" }
            }
        }
    ]
}

实验性功能:sdkMode(OpenAI Responses / Gemini SSE)

gcmp.compatibleModels[*].sdkMode 用于指定兼容层的请求/流式解析方式。除 openai / anthropic 标准模式外,以下两项为实验性能力:

  • openai-responses:OpenAI Responses API 模式(实验性)

    • 使用 OpenAI SDK 的 Responses API(/responses)进行请求与流式处理。
    • 适用:你的服务端/网关明确支持 Responses API(而不仅是 Chat Completions)。
    • 参数:默认不再传递 temperature、top_p、max_output_tokens,若需设置通过 extraBody 单独设置
    • Codex:默认通过请求头传递 conversation_id、session_id,请求体传递 prompt_cache_key(火山方舟传递previous_response_id除外)。
    • 注意:并非所有 OpenAI 兼容服务都实现 /responses;若报 404/不兼容,请切回 openai 或 openai-sse。
    • useInstructions(仅对 openai-responses 生效):是否使用 Responses API 的 instructions 参数传递系统指令。
      • false:用“用户消息”承载系统指令(默认,兼容性更好)
      • true:用 instructions 传递系统指令(更贴近 Responses API 语义,但部分网关可能不支持/行为不同)
  • gemini-sse:Gemini HTTP SSE 模式(实验性)

    • 使用纯 HTTP + SSE(data:)/ JSON 行流解析,不依赖 Google SDK,主要用于兼容第三方 Gemini 网关。
    • 适用:你的网关对外暴露 Gemini :streamGenerateContent 风格接口(通常需要 alt=sse)。

💡 FIM / NES 内联补全建议功能

  • FIM (Fill In the Middle) 是一种代码补全技术,模型通过上下文预测中间缺失的代码,适合快速补全单行或短片段代码。
  • NES (Next Edit Suggestions) 是一个智能代码建议功能,根据当前编辑上下文提供更精准的代码补全建议,支持多行代码生成。
  • 使用 FIM/NES 补全功能前,必须先在对话模型配置中设置对应提供商的 ApiKey 并验证可用。补全功能复用对话模型的 ApiKey 配置。
  • 在输出面板选择 GitHub Copilot Inline Completion via GCMP 输出通道,可查看具体补全运行情况和调试信息。
  • 目前能接入的都是通用大语言模型,没有经过专门的补全训练调优,效果可能不如 Copilot 自带的 Tab 补全。
展开查看详细配置说明

FIM / NES 内联补全建议模型配置

FIM 和 NES 补全都使用单独的模型配置,可以分别通过 gcmp.fimCompletion.modelConfig 和 gcmp.nesCompletion.modelConfig 进行设置。

  • 启用 FIM 补全模式(推荐 DeepSeek、Qwen 等支持 FIM 的模型):
    • 已测试支持 DeepSeek、硅基流动,特殊支持 阿里云百炼。
{
    "gcmp.fimCompletion.enabled": true, // 启用 FIM 补全功能
    "gcmp.fimCompletion.debounceMs": 500, // 自动触发补全的防抖延迟
    "gcmp.fimCompletion.timeoutMs": 5000, // FIM 补全的请求超时时间
    "gcmp.fimCompletion.modelConfig": {
        "provider": "deepseek", // 提供商ID,其他请先添加 OpenAI Compatible 自定义模型 provider 并设置 ApiKey
        "baseUrl": "https://api.deepseek.com/beta", // ⚠️ DeepSeek FIM 必须使用 beta 端点才支持
        // "baseUrl": "https://api.siliconflow.cn/v1", // 硅基流动(provider:`siliconflow`)
        // "baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1", // 阿里云百炼(provider:`dashscope`)
        "model": "deepseek-chat",
        "maxTokens": 100
        // "extraBody": { "top_p": 0.9 }
    }
}
  • 启用 NES 手动补全模式:
{
    "gcmp.nesCompletion.enabled": true, // 启用 NES 补全功能
    "gcmp.nesCompletion.debounceMs": 500, // 自动触发补全的防抖延迟
    "gcmp.nesCompletion.timeoutMs": 10000, // NES 补全请求超时时间
    "gcmp.nesCompletion.manualOnly": true, // 启用手动 `Alt+/` 快捷键触发代码补全提示
    "gcmp.nesCompletion.modelConfig": {
        "provider": "zhipu", // 提供商ID,其他请先添加 OpenAI Compatible 自定义模型 provider 并设置 ApiKey
        "baseUrl": "https://open.bigmodel.cn/api/coding/paas/v4", // OpenAI Chat Completion Endpoint 的 BaseUrl 地址
        "model": "glm-4.6", // 推荐使用性能较好的模型,留意日志输出是否包含 ``` markdown 代码符
        "maxTokens": 200,
        "extraBody": {
            // GLM-4.6 默认启用思考,补全场景建议关闭思考以加快响应
            "thinking": { "type": "disabled" }
        }
    }
}
  • 混合使用 FIM + NES 补全模式:
  • 自动触发 + manualOnly: false:根据光标位置智能选择提供者
    • 光标在行尾 → 使用 FIM(适合补全当前行)
    • 光标不在行尾 → 使用 NES(适合编辑代码中间部分)
    • 如果使用 NES 提供无结果或补全无意义,则自动回退到 FIM
  • 自动触发 + manualOnly: true:仅发起 FIM 请求(NES 需手动触发)
  • 手动触发(按 Alt+/):直接调用 NES,不发起 FIM
  • 模式切换(按 Shift+Alt+/):在自动/手动间切换(仅影响 NES)

快捷键与操作

快捷键 操作说明
Alt+/ 手动触发补全建议(NES 模式)
Shift+Alt+/ 切换 NES 手动触发模式

🪟 上下文窗口占用比例状态栏

GCMP 提供上下文窗口占用比例状态栏显示功能,帮助您实时监控当前会话的上下文窗口使用情况。

展开主要特性说明

主要特性

  • 实时监控:状态栏实时显示当前会话的上下文窗口占用比例
  • 详细统计:悬停状态栏可查看详细的上下文占用信息,包括:
    • 系统提示:系统提示词占用的 token 数量
    • 可用工具:工具及MCP定义占用的 token 数量
    • 环境信息:编辑器环境信息占用的 token 数量
    • 压缩消息:经过压缩的历史消息占用的 token 数量
    • 历史消息:历史对话消息占用的 token 数量
    • 思考内容:会话思考过程占用的 token 数量
    • 本轮图片:当前会话图片附件的 token 数量
    • 本轮消息:当前会话消息占用的 token 数量

📊 Token 消耗统计功能

GCMP 内置了完整的 Token 消耗统计功能,帮助您追踪和管理 AI 模型的使用情况。

展开查看详细功能说明

主要特性

  • 持久化记录:基于文件系统的日志记录,无存储限制,支持长期数据保存
  • 用量统计:记录每次 API 请求的模型和用量信息,包括:
    • 模型信息(提供商、模型 ID、模型名称)
    • Token 用量(预估输入、实际输入、输出、缓存、推理等)
    • 请求状态(预估/完成/失败)
  • 多维度统计:按日期、提供商、模型、小时等多维度查看统计数据
  • 实时状态栏:状态栏实时显示今日 Token 用量,30秒自动刷新
  • 可视化视图:WebView 详细视图支持查看历史记录、分页显示请求记录

使用方式

  • 查看统计:点击状态栏的 Token 用量显示,或通过命令面板执行 GCMP: 查看今日 Token 消耗统计详情 命令
  • 历史记录:在详细视图中可查看任意日期的统计记录
  • 数据管理:支持打开日志存储目录进行手动管理

配置选项

{
    "gcmp.usages.retentionDays": 100 // 历史数据保留天数(0表示永久保留)
}

📝 Commit 生成提交消息功能

GCMP 支持在提交前自动读取当前仓库的改动(已暂存/未暂存/新文件),提取关键 diff 片段并结合相关历史提交与仓库整体提交风格(auto 模式下)来生成更贴合你项目习惯的提交信息。

展开查看详细使用说明

使用入口:Git仓库管理视图

  • 仓库标题栏按钮:生成提交消息
  • 更改分组栏按钮:
    • 在“暂存的更改”上生成:生成提交消息 - 暂存的更改
    • 在“更改”上生成 生成提交消息 - 未暂存的更改

生成范围说明(staged / working tree)

  • 生成提交消息:默认行为,同时分析 staged + working tree(tracked + untracked)。
  • 生成提交消息 - 暂存的更改:仅分析 staged,适合“分步提交/拆分提交”。
  • 生成提交消息 - 未暂存的更改:仅分析 working tree(tracked + untracked),不包含 staged。

多仓库工作区:如果当前工作区包含多个 Git 仓库,GCMP 会尝试根据你点击的 SCM 区域推断仓库;无法推断时会弹出仓库选择。

模型选择与配置

该功能基于 VS Code Language Model API 调用模型。

  • 第一次使用或未配置模型时,会自动引导选择模型(也可手动运行 GCMP: 选择 Commit 消息生成模型)。
  • 相关配置项:
{
    "gcmp.commit.language": "chinese", // 生成语言:chinese / english(auto 模式语言不明确时的回退值)
    "gcmp.commit.format": "auto", // 提交消息格式:auto(默认) / 见下方 format 说明
    "gcmp.commit.customInstructions": "", // 自定义指令(仅当 format=custom 时生效)
    "gcmp.commit.model": {
        "provider": "zhipu", // 生成模型的提供商(providerKey,例如 zhipu / minimax / compatible)
        "model": "glm-4.6" // 生成模型的 ID(对应 VS Code Language Model 的 model.id)
    }
}

gcmp.commit.format 格式说明与示例

说明:以下示例仅用于展示格式形态;实际内容会根据你的 diff 自动生成。

  • auto:自动推断(会参考仓库历史的语言/风格;不明确时回退为 plain + gcmp.commit.language),默认推荐。
✨ 新增提交消息生成

- 支持在“暂存的更改 / 未暂存的更改”分别生成
- 自动截断过长 diff,保留关键片段

(也可能推断成 Conventional/Angular 这类风格,例如:)

feat(commit): 新增提交消息生成

- 增加多仓库推断与选择提示
  • plain:简洁一句话,不含 type/scope/emoji(适合快速提交)。
新增提交消息生成功能
  • custom:完全由你的自定义指令控制(gcmp.commit.customInstructions)。
[Commit] 新增提交消息生成

- 按团队模板输出:模块/影响范围/注意事项等
  • conventional:Conventional Commits(可带 scope,常见写法是“标题 + 可选正文要点”)。
feat(commit): 新增提交消息生成

- 支持 staged / 未暂存分别生成
- 自动补充相关历史提交作为参考
  • angular:Angular 风格(type(scope): summary,语义上接近 conventional)。
feat(commit): 新增 SCM 入口

- 在仓库标题栏与更改分组栏增加入口
  • karma:Karma 风格(偏“单行”,保持短小)。
fix(commit): 修复多仓库选择
  • semantic:语义化 type: message(不带 scope;也可以带正文要点)。
feat: 新增提交消息生成

- 自动识别本次变更的关键 diff
  • emoji:Emoji 前缀(不带 type)。
✨ 新增提交消息生成
  • emojiKarma:Emoji + Karma(emoji + type(scope): msg)。
✨ feat(commit): 新增提交消息生成

- 更贴合仓库既有提交习惯
  • google:Google 风格(Type: Description)。
Feat: 新增提交消息生成

- 支持按仓库风格自动选择语言与格式
  • atom:Atom 风格(:emoji: message)。
:sparkles: 新增提交消息生成

🤝 贡献指南

我们欢迎社区贡献!无论是报告bug、提出功能建议还是提交代码,都能帮助这个项目变得更好。

开发环境设置

# 克隆项目
git clone https://github.com/VicBilibily/GCMP.git
cd GCMP
# 安装依赖
npm install
# 在 VsCode 打开后按下 F5 开始扩展调试

💰 赞助

如果您觉得这个项目对您有帮助,欢迎通过 查看赞助二维码 支持项目的持续开发。

🙏 致谢

感谢以下组织对本项目的支持:

  • 项目Logo 来源于 三花AI,版权归 重庆毛茸茸科技有限责任公司 所有。

📄 许可证

本项目采用 MIT 许可证 - 查看 LICENSE 文件了解详情。

  • Contact us
  • Jobs
  • Privacy
  • Manage cookies
  • Terms of use
  • Trademarks
© 2026 Microsoft