DeepSeek V3.1总算是来了

13 个赞

Model size
685B params

5 个赞

仍然只是对V3的微调,对性能的提升不能抱太大希望:tieba_087:

5 个赞

参数量有变化,希望对数据做了筛选优化

2 个赞

没变,一直都是685B

1 个赞

之前不是671B吗

1 个赞

wow 真快讯
但是为什么深夜发

671B是模型权重,还有14B是一个单独的模块的权重来着我记得

确实,我看了一下0528,也是685

HF的是685B,Github的是671B,
因为HF比github多了一个14B的令牌权重模型。
基础模型都是671B。

4 个赞

ohhhhhh 是deepseek

贴一个变化,挺大的,我就不说哪个才是最新版


第一个的回答把我看哭了,比gemini还催泪,没有任何提示词干扰

答案揭秘

第一个是新的,后一个是旧的

等等,啥意思,有人说这是混合模型,所以深度思考也升级了? r2前瞻版?还是以后都是混合模型

第一个回答绘声绘色,感觉像是讲故事,第二个像是产品说明书,没得感情。

R2啥时候来

希望deepseek能快点发力吧

有什么 优势 吗

我以外有啥变化,哈哈哈

幻觉还是很严重

1 个赞

感觉中文功底更强了,一些文言文的翻译还不错