Model size
685B params
5 个赞
仍然只是对V3的微调,对性能的提升不能抱太大希望![]()
5 个赞
参数量有变化,希望对数据做了筛选优化
2 个赞
没变,一直都是685B
1 个赞
之前不是671B吗
1 个赞
wow 真快讯
但是为什么深夜发
671B是模型权重,还有14B是一个单独的模块的权重来着我记得
确实,我看了一下0528,也是685
HF的是685B,Github的是671B,
因为HF比github多了一个14B的令牌权重模型。
基础模型都是671B。
4 个赞
ohhhhhh 是deepseek
等等,啥意思,有人说这是混合模型,所以深度思考也升级了? r2前瞻版?还是以后都是混合模型
第一个回答绘声绘色,感觉像是讲故事,第二个像是产品说明书,没得感情。
R2啥时候来
希望deepseek能快点发力吧
有什么 优势 吗
我以外有啥变化,哈哈哈
幻觉还是很严重
1 个赞
感觉中文功底更强了,一些文言文的翻译还不错


