想问现在最好用的免费 LLM 翻译 API 是啥?
现在新出的基本都是思考模型,都无法满足低延迟的要求。
俺对翻译 API 要求是
延迟低(最主要的 直接划掉一批思考模型
审查少
质量尽量好
用的场景主要是以下
沉浸式翻译
renpy 黄油翻译
zotero 文献翻译
目前网页翻译在用GLM-4-FLASH
黄油GROK-4-FAST
Zotero GLM-4.5-FLASH关思考
想问现在最好用的免费 LLM 翻译 API 是啥?
现在新出的基本都是思考模型,都无法满足低延迟的要求。
俺对翻译 API 要求是
延迟低(最主要的 直接划掉一批思考模型
审查少
质量尽量好
用的场景主要是以下
沉浸式翻译
renpy 黄油翻译
zotero 文献翻译
目前网页翻译在用GLM-4-FLASH
黄油GROK-4-FAST
Zotero GLM-4.5-FLASH关思考
gpt5min? ![]()
试试这个:
Grok 4 Fast 限时免费
这个翻译黄油在用了
除了qwen都是思考模型。。。
不免费呀
@Neuroplexus N佬的公益站Cone,里面的免费小模型不错。比如zone/thane-alpha。以我拙劣的学术水平来说在zotero里也够用了
cerebras qwen 235B instruct 400t/s
如果同时注重速度和质量 火山引擎doubao的flash不错(关闭思考) 但是有审查
付费的话推荐用阿里的
别的不知道,OpenRouter 目前有无限量 grok4-fast 免费调用。
Zotero glm4.5-flash 还是蛮好用的
主要是这个模型并发低 不然也上网页翻译了
延迟低那就试试硅基国内的腾讯hunyuan-MT-7B
用的qwen
始皇的DeepLX
deeplx是机器翻译,现已满足不了我想要自定义系统prompt的需求 ![]()
gemini-2.5-flashlite不行吗,可以在newapi里设定他思考预算最低,就不思考了
并发底吗?不是50多吗
我平常有阅读论文需求,用的是cherry划词翻译,接glm-4.5-flash,感觉翻译结果还是不错的,该保留的英文会保留,词汇翻译也比较准确。