常见问题

通用排查:按 F12 打开浏览器开发者工具,切换到“网络”(Network)查看请求的 Response 详情,绝大多数报错都能在此定位。

翻译结果为空、仅显示原文、null 怎么办?

常见原因:

  • 配置错误:API Key 未生效,或翻译接口参数填写不完整;
  • 额度/速率受限:账号 Credits 已耗尽,或速率过高被接口暂时限制;
  • 缓存命中原文:缓存中过往的原文被直接返回;
  • 网络受限:所选接口(如 OpenAI、Gemini、Claude 等)在当前地区受限,或代理/网络异常导致请求失败。

✅ 排查顺序:

  1. 核对 API Key 与接口设置;
  2. 查看账户额度、速率限制及 429 报错;
  3. 关闭或清空翻译缓存后重试;
  4. 确认网络环境支持所用接口。
  5. 打开浏览器开发者工具并查看接口返回:按 F12(或 Ctrl+Shift+I)→ 切到 Network/网络 → 重新点一次“翻译” → 点开最新的翻译请求,查看 Status(如 401/429/5xx)和 Response/Preview 里的报错信息。

若只少量语句未译,可直接再次点击“翻译”;缓存会跳过已完成内容,不会重复扣费。

本地模型提示跨域或连不上?

使用 Ollama、LM Studio 等本地模型时,常见失败原因是浏览器 CORS 或广告拦截:

  1. 先临时关闭广告/隐私扩展并刷新;
  2. 根据 翻译接口指南 启用本地服务的 CORS(如设置 OLLAMA_ORIGINS=*、在 LM Studio 勾选 Enable CORS);
  3. 若仍失败,检查端口占用,并在 Network 面板查看返回状态码。公司/校园网络还需确认防火墙未拦截本地端口。

翻译速度为什么慢?

API 设置中的“并发行数 / 上下文行数”参数,直接决定翻译的并发量和速度。

  • GTX (Free):默认高并发,但在大量请求下极易触发限流 (429);
  • AI 接口:默认并发较低,以保证稳定性。

提速建议

  1. 调高并发:将“并发行数”由 20 逐步调至 30 或 50。一旦出现 429 报错或返回空结果,请立即调低。
  2. 开启上下文:在大模型翻译中,开启“上下文关联翻译”并适当增加“上下文行数”,能有效提升连贯性和利用率。
  3. 使用缓存:开启翻译缓存可直接复用结果,显著提升二次翻译速度。

AI 翻译质量不理想怎么办?

  • 先恢复默认:在“翻译设置”中重置,再用小段文本复测;
  • 再调温度:
    • 0~0.3:术语严谨、需要稳定;
    • 0.4~0.7:通用场景;
    • 0.8~1.0:允许意译/更有创造性。
  • 开启上下文关联翻译,提升对话连贯性。

大多数 70B+ 在线主流模型的基础翻译能力没问题,输出异常通常与温度或提示词设置有关。

为什么要用第三方接口访问 DeepL?

DeepL 官方禁止直接在网页里调用 API,因此需要一个中转通道代发请求。该通道仅用于转发,不会记录你的数据;如需极致稳定性,可自行搭建专属代理。

API Key 会被保存吗?

不会。API Key 与所有设置都只存储在本地浏览器,任何服务器都无法读取。

为什么默认不启用 GTX Web?

GTX Web 会给共享服务带来较大压力,所以默认关闭。若在本地自用,可手动开启;开启全局代理或网络不稳时可能导致请求异常。