翻译接口指南
工具集成了 8 种经典翻译 API 和 21 种大语言模型,可按文本类型、预算与隐私需求自由选择。
经典翻译 API
要点说明:
- DeepL 不允许浏览器直连,工具默认走内置代理;如有自建代理可在设置中填入自定义 URL。
- Qwen-MT 是阿里云专为翻译训练的模型,详见下文 Qwen-MT 使用要点。
- TranslateGemma 是 Google 开源的翻译专用 Gemma,需要本地用 LM Studio / Ollama / llama.cpp 跑起来,详见下文 本地模型接入。
- GTX API/Web 免费但有调用频率限制,长任务建议用付费 API。
需要更稳定的服务,可自行申请商业 API Key,详见 接口申请教程。
大语言模型(LLM)
支持的 LLM 接口:DeepSeek、OpenAI、Claude、Gemini、Qwen、Moonshot (Kimi)、Zhipu GLM、Doubao、MiniMax、Tencent Hunyuan、Baidu ERNIE、Cohere、xAI (Grok)、Mistral、Perplexity、OpenRouter、Groq、SiliconFlow、Nvidia NIM、Azure OpenAI,以及兼容 OpenAI 协议的自定义接口。
适合处理:
- 文学作品、技术文档等需要深度理解的内容
- 需要保持术语风格一致的多语种资料
- 想用自定义提示词控制翻译风格的场景
主要参数:
- 模型:填所选接口提供的模型名;Azure OpenAI 填部署名。
- 温度(Temperature):默认 0.7。技术文档建议 0.2 左右,营销/意译可以放到 0.9。
- 思考模式:DeepSeek、Claude、部分 NVIDIA NIM 模型支持思考链开关,开启后可在
low / medium / high三档调节推理强度。仅对支持的模型显示。
区域端点切换
不少接口在国内、海外、美国有不同的接入地址,URL 输入框上方会以快捷标签列出官方地址,点击即可切换:
URL 自动补全
OpenAI 兼容接口的 URL 字段在你切走焦点时会自动补全为完整路径,避免常见的"少写 /v1/chat/completions 导致连不上"的问题。粘贴 http://host:port 或 http://host:port/v1 即可。
Qwen-MT 使用要点
阿里云的 Qwen-MT 是机器翻译类服务,与通用 LLM 不同——它没有 system prompt 概念,只用源/目标语言代码工作,因此 Prompt 设置对它不生效。
模型选择
API 设置的 模型 字段需要手动填写:
领域提示(domains)
domains 字段告诉模型当前文本所处的行业,让术语更专业。注意:填一段英文自然语言,不是关键词列表。阿里官方示例:
不需要时留空即可。
不支持的语言
以下语言 Qwen-MT 暂未覆盖,UI 会自动提示并阻止使用:柯尔克孜(ky)、土库曼(tk)、塔吉克(tg)、蒙古(mn)、马拉雅拉姆(ml)、旁遮普(pa)、博杰普尔(bho)、豪萨(ha)、阿姆哈拉(am)、维吾尔(ug)。
内置 API 代理
DeepL、Nvidia NIM 等接口浏览器直连会被官方 CORS 策略拦截,工具默认通过自家代理转发请求。如果你在设置里填了自定义 API URL,代理会被绕过,请求直接发到你填的地址。
本地模型接入
希望自己跑模型保护隐私?工具支持任何兼容 OpenAI 协议的本地服务。为了翻译质量,建议使用 qwen3-14b 及以上参数规模的模型(32B / 70B 效果更好)。
默认接口地址
URL 输入框旁会列出这些常用地址作为快捷选项。
TranslateGemma
Google 推出的翻译专用 Gemma 模型,针对翻译质量做了专门训练。使用要点:
- 默认地址指向 LM Studio 1234 端口,可一键切换到 Ollama / llama.cpp
- 推荐模型:
translategemma-4b-it(轻量快速)或translategemma-9b-it(质量更好) - 必须明确指定源语言——这个模型不支持"自动检测"
- 暂不支持粤语(yue)和博杰普尔语(bho)
解决 CORS 跨域
浏览器调用本地模型时若连不上,最常见的两个原因:
步骤 1|排查广告/隐私插件:先暂时禁用浏览器的拦截扩展,刷新重试。
步骤 2|为本地服务开启 CORS:
Ollama
在 PowerShell(Win + X 打开终端)粘贴一行命令永久启用:
*允许所有来源;想更严格可换成具体域名,例如http://192.168.2.20:3000。
设置后重启 Ollama 服务即可生效。临时启用也可以在启动时加环境变量:
LM Studio
- 打开左侧菜单的「Developer」图标
- 进入本地服务器设置页,点顶部「Settings」
- 勾选「Enable CORS」复选框

完成后即可正常调用本地模型。仍连不上的话,检查端口占用情况和浏览器控制台的报错信息。(特别感谢 mrfragger 分享配置经验)
语言支持
本工具支持 77 种主流语言互译。
语言代码对照表
批量配置多语言时,使用下方语言代码(如 en, zh, ja, ko):
API 支持文档
LLM 可支持所有语言,机器翻译 API 语言支持如下:

