常见问题

通用排查:按 F12 打开浏览器开发者工具,切换到“网络”(Network)查看请求的 Response 详情,绝大多数报错都能在此定位。

为什么翻译结果为空、仅显示原文,或显示为 null?

出现这种情况,可能有以下几种原因:

  • API 密钥(API Key)或相关设置不正确;
  • 账户的可用额度(Credits/Token)已用尽;
  • 翻译速率设置过高,或接口本身暂时不太稳定;
  • 所选 AI 接口(如 OpenAI、Gemini、Claude 等)不支持中国大陆 IP 访问,请确认网络环境或使用服务商允许的接入方式。

如果只是部分内容未能成功翻译,尝试再次点击“翻译”按钮即可。在启用了翻译缓存的情况下,系统会跳过已翻译的内容,避免重复扣费或重复请求。

为什么翻译速度会比较慢?为什么免费 GTX 接口反而更快?

这里的关键是“翻译速率”,它本质上就是“并发数(一次同时发出多少个请求)”。

  • GTX 看起来更快:默认并发更高、响应体更短,所以整体更快。但它有更严格的频率/额度限制,长时间大批量容易被限流。
  • AI 接口偏稳:默认并发较低,是为了减少 429(Rate limit)或“token 上下文超限”等错误,新手更不容易踩坑。

想更快:把「翻译速率」从 20 逐步加到 30/50,若出现 429 或空结果就回退一点。

小提示:

  • 开启翻译缓存后,重复内容会被跳过,二次翻译会更快。
  • 网络环境和所选模型也会影响速度,必要时可换模型或稍后再试。

AI 翻译质量不理想怎么办?

建议按以下顺序排查:

  • 恢复默认:在“翻译设置”中重置配置,先用一小段文本复测。
  • 调整采样温度(默认 0.7):
    • 0~0.3:技术/术语严格,追求稳定一致
    • 0.4~0.7:通用内容,均衡
    • 0.8~1.0:更具创造性(营销/意译)

注:绝大多数 70B+ 主流在线大模型本身翻译没大问题,问题多由温度设置不当导致。

为什么要用第三方接口访问 DeepL?

因为 DeepL 的官方服务不允许直接从网页上调用,所以我们通过一个“中转通道”来帮你把请求发出去。

这个中转接口只是用来传输数据,不会收集你的任何信息,你可以放心使用。如果你对稳定性有更高要求,也可以自己搭建这个通道。

我的 API Key 会被保存吗?

不会的!你的 API Key 和其他设置都只保存在你自己的浏览器里,我们不会上传或记录任何信息。

为什么没有启用 GTX Web 接口?

GTX Web 对服务器压力比较大,所以默认没有开启。

如果你是在自己电脑上使用这个工具,可以手动开启。请避免在开启全局代理的网络环境下使用该接口,可能会导致翻译异常。