翻译接口指南
本工具集成了 6 种翻译 API 和 9 种主流大语言模型(LLM)接口,用户可根据需求选择合适的翻译方式:
经典翻译 API
- DeepL:适用于长篇文本,翻译更加流畅自然,但不支持网页端 API,需本地或服务器代理调用。
- Google Translate:翻译质量稳定,适用于短句、界面文本,支持网页端调用。
- Azure Translate:支持语言最多,适合多语言翻译需求。
- Qwen-MT:阿里云推出的专门针对翻译场景优化的大模型,支持指定领域(如医疗、科技等)以获取更专业的翻译结果。
- GTX API/Web:免费翻译选项,适合轻量级使用,但稳定性和调用频率有限。例如,mrfragger 在翻译一个约 200 万字符的字幕文件(约 2MB)时,仅执行两次翻译即触发了 GTX API 限制。
如果对翻译速度和质量有更高要求,可自行申请 API Key。申请流程参考相关的接口申请教程。
LLM 模型翻译
除传统翻译 API 外,本工具还支持调用多种 LLM 进行智能翻译,包括:DeepSeek、Nvidia、OpenAI、Gemini、Perplexity、Azure OpenAI、Siliconflow、Groq、OpenRouter,以及可自由配置的 Custom LLM。
- 适用场景:适合处理语言理解要求较高的内容,如文学作品、技术文档、多语种资料等。
- 高度可定制:支持配置系统提示词(System Prompt)与用户提示词(User Prompt),可灵活控制翻译风格、术语偏好等,满足多样化的翻译需求。
- LLM 模型:一般情况下填写所选接口提供的模型名称;若使用 Azure OpenAI,则需填写对应的部署名称。
- 采样温度(temperature):用于控制翻译结果的创造性与稳定性,默认值为 0.7。建议:0~0.3 适合技术/术语严格场景;0.4~0.7 适合通用内容;0.8~1.0 适合更具创造性的场景(如营销/意译)。
API 代理
为了解决浏览器直接调用官方 API 时可能遇到的跨域(CORS)问题,DeepL 和 Nvidia 默认使用内置的代理服务。
- 默认行为:当 API URL 为空时,工具会自动使用内置代理(如
https://api-edgeone.newzone.top/api/nvidia)来转发请求。 - 自定义 URL:如果您在设置中指定了自定义的 API URL(例如私有部署地址或官方直接地址),内置代理将被 绕过,请求直接发送到您指定的地址。
本地模型接入
对于希望在本地部署并使用自定义大模型(如 Ollama 或 LM Studio)的用户,可通过以下方式完成本工具与本地模型的连接方式,并解决可能出现的跨域访问(CORS)问题。为获得更优的翻译质量,推荐在自定义模型中使用 qwen3-14b 或更高参数规模的模型(如 32B、70B)。
常用接口地址
下表列出了常见本地模型工具的默认接口地址,可直接在配置中使用,或根据实际端口号进行修改。
解决CORS跨域
在浏览器中调用本地部署的模型时,如果出现连接失败,常见原因包括 浏览器的广告屏蔽插件 或 跨域访问限制(CORS 策略)。 跨域策略是浏览器的一种安全机制,用于防止网页随意访问不同来源的资源。因此,当你在网页中请求本地模型接口时,可能会被浏览器阻止。
步骤 1|排查广告/隐私插件:先暂时禁用浏览器的拦截扩展,再刷新页面测试。
步骤 2|开启本地服务的 CORS:按照下方指南为常用工具放行跨域。
Ollama
要让本地运行的 Ollama 服务支持 CORS,你可以通过设置环境变量的方式永久启用。操作如下:
-
按下
Win + X,选择 Windows PowerShell 或 终端。 -
在打开的 PowerShell 中粘贴以下命令并按回车:
其中
*表示允许所有来源访问 Ollama 接口。若你希望更严格的安全控制,可将其替换为特定域名,例如http://192.168.2.20:3000。
设置完成后,重启 Ollama 服务,即可让其生效。
如果只想临时启用 CORS,也可以在启动服务时直接加入环境变量:
LM Studio
- 打开软件左侧菜单,点击 「Developer」 图标;
- 进入本地服务器设置页面,点击顶部 「Settings」;
- 勾选 「Enable CORS」 复选框(如下图所示)。

完成以上设置后,本工具即可顺利调用你的本地 LLM 模型。若仍遇到访问问题,可检查端口占用情况或浏览器控制台中的报错信息。(特别感谢 mrfragger 分享配置经验)
语言支持
本工具支持 77 种主流语言互译。
语言代码对照表
批量配置多语言时,使用下方语言代码(如 en, zh, ja, ko):
API 支持文档
LLM 可支持所有语言,机器翻译 API 语言支持如下:

