近年来,随着在线视频的兴起,国外热门影视作品的翻译多由视频平台完成,而原本活跃的字幕组则逐渐淡出人们的视野。然而,对于冷门视频和自制视频的字幕需求却未能得到有效满足,导致未配字幕的视频数量持续增加。为解决这一问题,可以用 Whisper 工具为这些生肉视频自动生成字幕,并通过翻译接口将其翻译成中文。具体操作步骤可参考文章:找不到字幕?Whisper 让不懂外语的你也能看懂日剧。
针对市面上字幕翻译工具存在的翻译速度慢、不支持批量处理、需人工干预等问题,我开发了一款免费且功能全面的字幕翻译工具——Subtitle Translator。该工具支持 .srt
、.ass
、.vtt
多种字幕格式,并具备秒级翻译速度,大幅提高翻译效率。我已成功转录超过 500 个视频,翻译后的字幕文件可在 whisper-subtitles 查看。
Subtitle Translator 提供了丰富的参数选项,以适应不同用户的需求。以下是各项参数的详细说明:
本工具支持 5 种翻译 API 和 5 种 LLM(大语言模型)接口,用户可根据需求选择合适的翻译方式:
API 类型 | 翻译质量 | 稳定性 | 适用场景 | 免费额度 |
---|---|---|---|---|
DeepL(X) | ★★★★★ | ★★★★☆ | 适合长文本,翻译更流畅 | 每月 50 万字符 |
Google Translate | ★★★★☆ | ★★★★★ | 适合 UI 界面、常见句子 | 每月 50 万字符 |
Azure Translate | ★★★★☆ | ★★★★★ | 语言支持最广泛 | 前 12 个月 每月 200 万字符 |
GTX API(免费) | ★★★☆☆ | ★★★☆☆ | 一般文本翻译 | 免费 |
GTX Web(免费) | ★★★☆☆ | ★★☆☆☆ | 适合小规模翻译 | 免费 |
如果对翻译速度和质量有更高要求,可自行申请 API Key:Google Translate、Azure Translate、DeepL Translate。申请流程参考相关的接口申请教程。
本工具提供了 5 种主流 AI 大语言模型(LLM)或接口,分别为:OpenAI、DeepSeek、Siliconflow、Groq 以及 自定义模型(Custom LLM)。
自定义模型(Custom LLM)支持通过配置 API 接口和模型名称,接入第三方服务或本地推理平台(如 ollama)。例如,默认本地 ollama 的 API 地址为:
默认使用模型为 llama3.2
。如使用 LM Studio,本地接口地址为:
为获得更优的翻译质量,推荐在自定义模型中使用 qwen2.5-14b-instruct
或性能更高的模型。
在多语言翻译能力方面,Google、Azure 和 LLM(大语言模型)均支持上百种语言的互译,而 DeepL 目前仅支持 30 种主流语言。因此,从语言覆盖范围来看,DeepL 相对较弱。
具体的支持语言列表可参考以下官方文档:
对于字幕、Markdown 等具有上下文关联的文本文件,本工具会将多行文本自动合并为若干“块”进行翻译。分块翻译大小即指每个打包块的字符数上限。不同翻译服务的最大字符限制如下:
注意:由于 Google 翻译在处理文本时会破坏换行符,因此未使用分块翻译方式。
延迟时间用于设置分块翻译之间的等待间隔。在处理大段文本时,某些翻译 API 响应速度较慢,尤其在网络环境较差或使用免费接口的情况下,延迟设置显得尤为重要。
例如,在使用 Azure Translate 的免费端口进行测试时,建议将延迟时间设置为 5,000 毫秒以上,以避免返回空值或出错。
翻译速率设置过高可能导致 API 返回空值,甚至被视为异常请求。建议根据实际使用的服务类型和稳定性,适当控制速率,以提升翻译的成功率和稳定性。
Subtitle Translator 支持 .srt
、.ass
、.vtt
等多种字幕格式,并提供自动格式匹配功能:
Subtitle Translator 支持批量翻译和单文件模式,适应不同使用需求:
批量翻译(默认):
单文件模式(适用于小型任务):
本工具引入可选的本地翻译缓存,提高翻译效率并降低资源消耗:
源文本_目标语言_源语言_翻译 API_模型设置
作为唯一 key 进行存储。如果不想使用缓存,可取消勾选“使用翻译缓存”,或在 API 设置中点击“清除翻译缓存”。
支持将同一个文件一次性翻译为多种语言,特别适合需要国际化的视频内容:
使用本工具时,请注意以下几点: