GLM/智谱 AI 实时用量监控
这是一个为 智谱 AI (GLM) 和 Z.ai 开发者打造的插件。它能让你在编辑器底部实时查看 API 用量、Token 消耗以及配额剩余情况,从此告别盲目调用,精准掌控开发成本。

✨ 核心特性
🛠️ 快速开始
- 安装插件:在 VS Code 插件市场搜索
GLM Usage 并安装。
- 配置 Token:
- 点击底部状态栏的
$(gear) 配置 GLM。
- 或者按
Ctrl+Shift+P 输入 GLM 选择配置命令。
- 输入您的 API Key (支持
sk-... 或 id.secret 格式)。
- 开始使用:
- 配置完成后,状态栏会自动显示当前用量。
- 鼠标悬停在状态栏上查看详细数据看板。
⚙️ 配置项
您也可以在 settings.json 中手动配置:
{
// 必须:您的 API Token
"glmUsage.authToken": "your_api_key_here",
// 可选:API 地址 (默认智谱 AI)
// 支持: "https://open.bigmodel.cn/api/anthropic" 或 "https://api.z.ai/api/anthropic"
"glmUsage.baseUrl": "https://open.bigmodel.cn/api/anthropic",
// 可选:请求超时时间 (毫秒)
"glmUsage.timeout": 30000
}
提示:插件也支持读取系统环境变量 ANTHROPIC_AUTH_TOKEN,适合不在代码库中保存 Token 的场景。
❓ 常见问题
Q: Token 在哪里获取?
A: 请前往 智谱 AI 开放平台 或 Z.ai 控制台生成您的 API Key。
Q: 状态栏为什么变红了?
A: 这意味着您的 MCP 额度或 Token (5h) 流控使用率超过了 80%。请注意控制调用频率,以免服务被暂停。
📄 开源协议
MIT License © 2026 Safphere
| |