什么你还在用v3进行沉浸式翻译?谁才是0成本论文翻译神器?沉浸式翻译大比拼(具体效果还是要看自己需求,此贴仅供参考)

按表格顺序,依次是Glm-4.1v-thinking-flash,GLM-Z1 airx ,GLM-Z1-flash,Deepseek-v3-0324,GPT-4.1nano.

评审员:Deepseek-R1-0528

评比标准:你现在是ai翻译质量测评专家,接下来我给你一段原文,和若干ai翻译,你评测一下翻译质量如何,主要侧重于对原文语义的传达和是否贴合中文表达习惯,通顺流利度以及专业术语翻译的准确度上考量。

结果:glm-Z1-flash 遥遥领先(当然这个结果主观性很强,值得一提的是,这块模型参数量只有9B)

之所以用z1-flash还是出于速度上的考量,输出速度几乎跟v3无异,而且官方完全免费,支持高并发.

原文: The Recip function in the Softmax module exhibits a high dynamic range in our statistic experiments. To accurately sample the function results on the sheer range between 0 to 1, the table needs to be very large. Initially, storing the reciprocal function would have needed an entire BRAM bank (depth=1024, width=36) to maintain accuracy. To minimize BRAM usage, we exploited the function’s inherent properties and segmented it into two parts, each owning an independent scaling factor. We empirically divide the input range at the first 1/8 for the steep part and the remainder for the flat. This approach is visualized in Figure 10d. The orange line is the abs error of the original LUT implementation of Recip, and the blue one is the segmented implementation with the segmentation pivot annotated to it. With more entries between 0 and 1, the sampling is more accurate, reducing Mean Squared Error (MSE) from 0.032 to 0.0034.

冠军模型译文:

Softmax 模块中的 Recip 函数在我们的统计实验中表现出高动态范围。为精确采样 0 至 1 区间内的函数结果,需要构建庞大的查找表(LUT)。最初直接存储倒数函数需占用整个 BRAM 存储体(深度=1024,位宽=36)以确保精度。为最小化 BRAM 消耗,我们利用函数固有特性将其划分为两部分,各配独立缩放因子。经实验将输入范围首 1/8 划分为陡峭部分,余量作为平坦部分(图 10d)。橙色曲线为原始 LUT 实现 Recip 的绝对误差,蓝色曲线为分段实现,标注了分段临界点。通过在 0-1 区间增加采样点数,采样精度显著提升,使均方误差(MSE)从 0.032 降至 0.0034。

第二次测评:

37 个赞

不得不说Glm-4.1v-thinking-flash这个10B的小模型拿来做翻译真的不错,在语义传达这块比v3都强,而且输出速度非常快,就是专业术语传达有所欠缺。

7 个赞

我喜欢使用gpt4.1mini

6 个赞

这个确实有用


V3

4.1mini科研论文翻译不如nano,而且两者速度相差无几,只适合口语化翻译

3 个赞

这是glm-z1-flash的

佬 有没有相关研究或案例对比下

还是更喜欢 gpt-4.1-mini ,其他的模型出来的东西我不太信的过啊

2 个赞

看起来不错,我去搞个号试试

虽然但是,glm的审查是最厉害的,翻译着翻译着就跳违规了 :melting_face:

4 个赞

glm以前没啥审查,现在稍微翻译下就拦截了,没法用。

gemini系列呢,可以flash这些跟v3比咋样

改天试一下吧,v3已经足够好了

你到底在翻什么啊! :hot_face:

成见这一块

其实是有的,只是觉得没有贴出来的必要

gemini flash怎么样

这个跑沉浸式容易封号,就没考虑,之前用过,貌似翻译效果不佳

gemini 跑翻译容易封号吧,非开源,无法作为稳定翻译来源,而且之前用过,貌似效果不佳

Gemini2.5flash 译文:

Softmax模块中的Recip(倒数)函数在我们的统计实验中展现出高动态范围。为了在该函数0到1的巨大范围内精确采样其结果,所需的查找表(table)必须非常大。最初,为了维持精度,存储该倒数函数将需要占用一整个BRAM存储块(深度=1024,宽度=36)。

为了最小化BRAM使用量,我们利用了该函数的固有特性,将其分段为两部分,每部分各自拥有一个独立的缩放因子。我们根据经验将输入范围以前1/8处为分界点进行划分,用于处理函数的陡峭部分,剩余部分则用于处理平坦部分。这种方法在图10d中得到了可视化展示。橙色线表示Recip原始查找表(LUT)实现的绝对误差,蓝色线则表示分段实现,并标注了其分段点。通过在0到1之间设置更多的条目,采样变得更加精确,从而将均方误差(MSE)从0.032降低到0.0034。
1 个赞