【转帖】字节跳动推出豆包翻译大模型:支持 28 种语言互译,性能比肩 GPT-4o

IT 之家 9 月 22 日消息,字节跳动旗下火山引擎近日发布了其全新的通用翻译大模型 ——Doubao-Seed-Translation(豆包翻译模型),该模型支持 28 种语言互译,覆盖中、英、日、韩、德、法、西、俄等主流语种。

官方宣称,豆包翻译模型支持数十种语言互译,提供忠实、地道、流畅的译文,中英翻译效果逼近 Deepseek-R1,通用多语言翻译效果超越或持平 GPT-4o / Gemini-2.5-Pro。模型具备强大场景适配力,可精准处理办公、古诗文、网络热词、科技医疗等复杂语境,输出自然无 “翻译腔”。支持 4K 上下文、3K 输出长度,自动识别源语言,仅需指定目标语言即可高效调用,显著提升跨语言协作与文化理解效率。

IT 之家注意到,豆包翻译模型价格也极具竞争力,每百万字符输入仅需 1.20 元,输出为 3.60 元。

原链接:字节跳动推出豆包翻译大模型:支持 28 种语言互译,性能比肩 GPT-4o - IT之家

模型传送门:账号登录-火山引擎


平时用的 Qwen3-MT,看上去价格介于 Plus 和 Turbo 之间,但上下文比 Qwen3-MT 小得多

15 个赞

这些模型指令遵循度不够,沉浸式翻译完全不行还有就是审核严,基本没啥实用,还比不上硅基的免费小模型

3 个赞

感谢分享,先占个前排

这样嘛,也不知道有没有别的推荐的便宜 API,拿来沉浸式翻译

感谢分享~

等大佬测试一下

就硅基流动拿9B啊,或者叠号刷cerebras

尝试了下搞了几十个硅基 key 轮询,他真的好慢 :melting_face:
留着备用好了

现阶段的版本答案是:ollama cloud

越来越麻烦了

可以看看昨天站里有人发的帖子,甚至不用套new-api
免费的gpt-oss-120b、ds3.1和qwen480b,这还不够吸引佬吗

参数量大不一定适合翻译,沉浸式翻译得又快又准才行

看了下,似乎并发限制 1, 完全不适合沉浸式翻译

居然要钱?我还是用 deepseek 吧。

现在感觉没啥好用的免费沉浸式翻译 API 了,可能得 glm-4.5-flash 轮询?

我用的硅基。不过接码平台被贩子艹烂了,已经没有号码可用了。

GLM 翻译不行,4.5 都不行,跟 deepseek 没得比。

硅基我刚刚搞了几十个 key,他真的好慢啊
之前我用的 2API 的 qwen3-mt,后来官方收回了 demo,只能自己花钱用了

2 个赞

原来是我火星了,发之前还搜了下没搜到

你用思考模型你不慢谁慢啊 :clown_face:

有审查吧 :tieba_087:国产模型我日常不用来翻译的