求推荐作为翻译服务的ai模型

ai翻译给我的印象是翻译准确,但是翻译速度太慢了,比机翻慢好多。
现在有没有翻译很快的模型呀?求推荐。

11 个赞

试试2.5flash?

5 个赞

欢迎佬友 :clap:

推荐 Gemini 2.5 Flash

5 个赞

4.1min效果不错

2 个赞

便宜好用就行。之前用 Gemini Lite,后来因为沉浸式翻译被爆黑料,就换成了次抛 Github 薅的 Nebius 用 DeepSeek-V3-Fast。

就我自己观察

k2>2.5flash

但是速度确实是2.5flash快一些

便宜好用就好喵~
机翻肯定最快的 上下文越长 翻译质量越好 速度也越慢喵~

Gemini 2.0/2.5 Flash 感觉不错


@StellaFortuna 这里有新人(甚至是两个),上词!

2 个赞

白嫖免费的THUDM/glm-4-9b-chat搭配佬友的promt,用起来又快质量也可以

捉虫,prompt

1 个赞

gemini-2.5-flash,成本是gcp300,不然并发绝对不够
oai的模型效果都不合适,无论是成本速度还是质量
deepseek v3/v3.1比较慢
glm4.5还可以,并发够,质量也行,官网免费用
k2和qwen3也可以考虑一下

3 个赞

glm走起

1 个赞

qwen是我觉得当前综合体验最好的(综合)

api购买方便,想翻译快点用基础一点的模型会好些,flash啥的

qwen-mt 专用翻译的模型, 但会有敏感词检测

qwen3, deepseek-v3, kimi-k2

现在在玩电脑,没有词,那我大发慈悲授予你发词权限 :bili_114: (我常规情况下会把我的欢迎词分成三个部分分别存在我的常用词里面 然后一个一个复制粘贴出来 因为常用词字数限制五百 我那个是一千+)

2 个赞

我现在在楼下帮我妈取快递 :rofl:

真是个大忙鱼呢

1 个赞

用我的头像嘲讽我???

1 个赞

gemini-2.5-flash, Deepseek v3, GLM-4.5-Air

1 个赞