功能说明
核心特性
一次翻译,输出多语种
可以把同一份文件同时翻译成多种语言,适合多语种字幕或国际化项目。例如把英文字幕一次性翻译成中文、日语、德语、法语,导出时按语言分别打包。当前支持 70+ 种语言,持续扩充中。
翻译缓存
翻译结果会自动保存在浏览器本地,参数一致时直接命中缓存,不重复消耗 API:
- 持久化:刷新或关闭浏览器不会丢
- 大容量:可以保存数百万条记录,不占内存
- 可关闭:调试 Prompt / 模型时可临时关闭,避免读到旧结果
- 可清理:在设置面板中一键清空所有缓存
长文本与并发优化
针对大文档与批量任务做了专门优化:
- 并发控制:可自定义请求速率,付费 API 跑满额度,免费 API 限流保护不被封
- 大文件支持:流式分块处理,超大文档不卡顿
- 上下文感知:字幕与文档翻译会带上下文一起发给 AI,保证剧情/章节连贯
- 失败行单独重试:批次内出错的行单独标记,整批跑完后重试出错部分,不阻塞整体
失败行重发
LLM 偶尔会因格式输出错误、漏行、空响应导致部分内容翻译失败。这种情况下:
- 结果区顶部会出现红色提示,告诉你"N 行失败"
- 点击 重试失败行 仅对失败的行重新请求,已完成的内容保持不变、不重复扣费
- 也可以一键复制失败原文,粘到其他工具人工处理
翻译中止
翻译进行中点击进度弹窗的关闭按钮可以立即取消整批任务。已完成的行会进入缓存,下次点"翻译"会从断点继续。
RTL 语言自动适配
阿拉伯语、希伯来语、波斯语、乌尔都语等从右向左书写的语言,文本框和结果区会自动切换到 RTL 显示,无需额外配置。
使用模式
批量 vs 单文件
工具会根据上传内容自动切换:
- 批量模式(默认):拖入多个文件,自动排队处理,完成后打包下载。
- 单文件模式:上传单文件或直接粘贴文本,可逐行预览校对、编辑修改。
也可以在高级设置中手动锁定到单文件模式,方便校对。
JSON Translate 仅支持单文件模式。
一键交换源/目标语言
源语言和目标语言下拉框中间有一个 ⇄ 按钮,点击即可互换。源语言为"自动检测"或开启了多语言模式时按钮会变灰——这两种情况下不能互换。
API 连接状态
主页面顶部以徽章形式展示当前所选 API 的连接状态:
- 未配置 / 需配置:URL 或 API Key 还没填
- 已填写:信息齐全但还没测试
- 测试中 → ✓ 已连接 或 连接失败:测试结果
- Free API:免费且不需要配置的服务(如 GTX)
点击徽章可以快速跳到 API 设置页。
配置预设:API 与 Prompt 分开管理
工具把 API 配置和 Prompt 拆成两套独立的预设,互不干扰:
- API 预设:保存当前服务的 URL、Key、模型、温度等。适合在本地 Ollama、远程网关、付费云端之间切换。
- Prompt 预设:保存系统提示词和用户提示词。可以在"严谨术语"和"自由意译"两套提示词之间快速切换,不影响 API 配置。
两类预设都支持新建、加载、重命名、更新和删除,并随设置一同导入导出。
翻译后处理
翻译完成后可自动执行简单的字符串清理:
- 字符过滤:移除字幕里的
♪ ♫等多余符号 - 格式修正:去掉冗余 HTML 标签
该功能仅做简单字符串替换,不支持 \n、\t 等转义字符。需要复杂处理请用文本分割工具。
高级设置
设置导入/导出
一键备份所有配置(API 凭据、模型参数、API 预设、Prompt 预设),生成的 JSON 可跨设备导入,方便团队共享或换电脑迁移。
通用翻译选项
- 使用缓存:默认开启。参数一致时直接读缓存。调试时可临时关闭。
- 重试次数:请求失败时的最大重试次数。网络不稳或免费接口易限流时可以调高。
- 超时(秒):单次请求超时阈值。AI 模型慢或长文本多时可以调大。
- 翻译后移除字符:在结果中自动移除指定字符或片段(如字幕里的
♪、多余的<i>标签)。 - 自定义导出文件名:批量导出时统一命名,支持占位符
{name}(原文件名)、{lang}(目标语言)、{ext}(扩展名)、{date}、{time}。例如{name}_{lang}_{date}.{ext}。
API 参数调优
分块大小
非 LLM 接口(Google / Azure 等)会把长文本切成小块发送。分块大小就是每块的字符上限。常见接口的官方限制:
⚠️ Google Translate 网页版会破坏换行符,因此未启用分块。
延迟(毫秒)
每两次分块请求之间的等待时间。网络较差或用免费 API 时建议加大。例如用 Azure Translate 免费版,建议设到 5000 ms 以上。
并发行数
- 默认值:20
- 作用:同时翻译的最大行数
- 注意:调太高可能触发 API 限流(429)或返回空结果
上下文批量大小
- 默认值:3(部分接口为 1)
- 作用:开启上下文翻译时,每次发给模型的"待翻译目标行数"。每个请求会带上下文一起发。
- 建议:值越大单次吞吐越高,但模型同时输出多行容易格式错乱;值越小越稳,请求数也多。文档/字幕保持 3,普通文本可调到 5。
上下文行数
- 默认值:50
- 作用:上下文翻译时随附的行数
- 注意:越大上下文越丰富,但可能超出模型 Token 上限

