本地部署了个deepseek r1,感觉好弱智

本地部署了个deepseek r1,让他找几句诗句,给我会乱回答。是哪里没配置好吗?求佬们指教下

26 个赞

7b太小了tieba_087

12 个赞

7b是蒸馏qwen2.5 math模型

7 个赞

7b参数量太小了,最少要32b的才能理解你的意思

6 个赞

:joy: 原来是这个原因

3 个赞

7~8b 真就玩玩 手机上能折腾一下 桌面端14b起步吧~

不要折腾了 , 除非数据上有要求,你用本地模型的电费比API贵,还没有API这种智商

7b是这样呢

感谢佬指导,就练个手。本地部署确实感觉没必要

太小就这样,总结什么的还行。 问东西就难搞了。

7b 也就娱乐一下,对话都困难

说白了这个只是本质是 qwen2.5 的,并且只是q4 的一个蒸馏模型而已。严格不算deepseek r1

8B以上的base模型才是chat

本来也是想搞一堆洋垃圾来试试的,看来一些测试结果,放弃了。。

14b需要什么硬件

7b太小了,70b都不大行

7b适合辅助编程。不是通用模型。

7b真就图一乐 :tieba_091:

佬友,这是什么webui?

7b不弱智才怪:tieba_087: