本地部署了个deepseek r1,让他找几句诗句,给我会乱回答。是哪里没配置好吗?求佬们指教下
26 个赞
7b太小了![]()
12 个赞
7b是蒸馏qwen2.5 math模型
7 个赞
7b参数量太小了,最少要32b的才能理解你的意思
6 个赞
原来是这个原因
3 个赞
7~8b 真就玩玩 手机上能折腾一下 桌面端14b起步吧~
不要折腾了 , 除非数据上有要求,你用本地模型的电费比API贵,还没有API这种智商
7b是这样呢
感谢佬指导,就练个手。本地部署确实感觉没必要
太小就这样,总结什么的还行。 问东西就难搞了。
7b 也就娱乐一下,对话都困难
说白了这个只是本质是 qwen2.5 的,并且只是q4 的一个蒸馏模型而已。严格不算deepseek r1
8B以上的base模型才是chat
本来也是想搞一堆洋垃圾来试试的,看来一些测试结果,放弃了。。
14b需要什么硬件
7b适合辅助编程。不是通用模型。
7b真就图一乐 ![]()
佬友,这是什么webui?
7b不弱智才怪![]()

