跪求大佬给一个部署本地大模型的喂饭教程,不需要联网就能运行的,因为工作点没网。。

我的笔记本配置如下,不知道最适合部署哪些模型?跪求大佬指点

4 个赞

你这大概只能部署7B到3B的模型了,但这些超小模型的原生效果其实很差的要搭配知识库来进行食用

1 个赞

显卡配置不太行啊,7b以下小模型本地部署后效果不会达到预期

谢谢解答!
我在这个项目查到了一个DeepSeek-R1-Distill-Qwen-7B模型,请问该怎么部署到电脑上啊?

千问的B站是小模型部署教程的可以去看一看

这配置,部署了以后也不好玩,用几次后就会放弃的

1 个赞

啊对。我去搜一下教程看看,太依赖论坛大佬们了 :tieba_087:

配置不足,部署了也没什么实际用途,还是别折腾了,一定要折腾的话

找个能跑的起来的

我建议直接下载LM Studio,系统会根据你的硬件情况给出建议的模型,下载就行了

4 个赞

感谢解答,我这就去看看

1 个赞

沒能聯網使用,window最簡單應該是ollama/lmstudio。
但3b-7b的模型,只能處理很簡單的工作,還有運行速度token per secord,出字速度要你實測電腦配置才知道,應該會很不爽。

这个好!我去试试!

ollama

工具推荐很多就不聊了,看不懂B站随便搜大模型部署都有大把喂饭教程供新手观看
说真的7b还是太乐观了,3050ti随随便便就爆了,然后压力来到cpu,看你配置大概率是11400h,这速度用起来实属一般啊

搞个随身wifi吧 :bili_001:

什么工作点觉没网

没信号,还是没网。如果没信号的话 带啥都没用

这,还是不折腾了吧

有个叫闪电ai的适合你,适合小白一键部署,搜flash ai 即可,你看他宣传的多好。