Markdown Translate使用 OpenAI 兼容的聊天补全接口( English: Translate Markdown via any OpenAI-compatible LLM API. Results open in a new editor tab by default; optional in-place replacement. Requires configuring 安装
快速开始
本地 Ollama 等无鉴权场景:将 功能概览
说明: 内置 Markdown 预览运行在 Webview 中,扩展无法在预览内稳定挂载可点的 命令
设置(
|
| 配置项 | 说明 |
|---|---|
apiUrl |
必填。聊天补全接口的完整 URL(含路径)。示例:https://api.openai.com/v1/chat/completions;Ollama:http://127.0.0.1:11434/v1/chat/completions。 |
apiKey |
可选。若填写,优先于 Secret Storage 中的密钥。勿将含密钥的 settings.json 提交到公开仓库。 |
model |
模型名称,如 gpt-4o-mini 或本地 Ollama 模型名。 |
targetLanguage |
翻译命令的默认目标语言描述,默认「简体中文」。 |
secondaryTargetLanguage |
与上一项配对,供「切换并翻译」轮换,默认 English。 |
sourceLanguage |
源语言提示(如 English);留空则由模型判断。 |
resultDestination |
newEditor(默认)在新标签打开译文;replaceSelection 为原地替换选区或全文。切换翻译命令始终在新标签打开。 |
openTranslatedIn |
新标签打开译文时的列:beside(侧栏)或 active(当前列)。 |
showCodeLens |
是否在 .md 源码首行显示「中↔EN」CodeLens,默认 true。 |
chunkSize |
单次请求最大字符数;超出则分块串行请求。 |
temperature |
采样温度,默认 0.3。 |
apiKeyOptional |
true 时不强制填写 API Key(适用于本地无鉴权服务)。 |
confirmLargeDocumentLines |
整篇翻译且行数超过该值时先确认,默认 400。 |
隐私与安全
- 翻译内容会发送至你在
apiUrl中配置的远端服务(或本地 Ollama),请自行评估服务商隐私政策与合规要求。 - Set LLM API Key 将密钥写入本机 Secret Storage,不会写入工作区或普通
settings.json。 - 若使用设置中的
apiKey,请注意同步与备份范围,避免泄露。
环境要求
- VS Code
>= 1.85.0(或与之一致的 Cursor 版本)。
限制与免责声明
- 译文质量取决于模型与提示词; fenced 代码块、行内代码中的内容可能被误译,重要文档请先备份或使用版本控制。
- 长文会产生多次网络请求,受服务商速率与配额限制。
- 本扩展不内置任何大模型服务,亦不对第三方 API 的可用性、内容审查或计费负责。
从 DeepL 版迁移
本扩展仅支持 LLM;旧版 DeepL 密钥不再使用。请改用 Set LLM API Key(或 apiKey 设置),并配置完整 apiUrl 与 model。若曾使用 mdTranslate.apiBaseUrl,请改为 apiUrl,并在路径中保留 /chat/completions(例如 https://api.openai.com/v1 → https://api.openai.com/v1/chat/completions)。
开发与打包
维护者克隆本仓库后,在扩展根目录执行:
npm install
npm run compile
使用 F5 启动 Extension Development Host 调试。发布前打包:
npm run compile
npx @vscode/vsce package
生成 md-translate-<version>.vsix(版本见 package.json)。
若仓库位于 monorepo 子目录,请先 cd 到扩展根目录再执行上述命令。
许可证
本项目以 MIT License 发布,详见仓库中的 LICENSE 文件。