Qwen发布Qwen3.5-35B-A3B, Reddit上都炸了


现可以在Qwen chat上可体验。

https://www.reddit.com/r/LocalLLaMA/comments/1rdlbvc/qwenqwen3535ba3b_hugging_face/

https://www.reddit.com/r/LocalLLaMA/comments/1rdxfdu/qwen3535ba3b_is_a_gamechanger_for_agentic_coding/

reddit上都炸了,都在惊艳Qwen3.5-35B-A3B的表现。

注:说的是本地部署。该模型是小模型,和其他超大参数的旗舰模型比不了。

有8G以上显存,32G以上内存的佬友可以自己部署Q4量化的玩玩。

48 个赞

怎么说,本地部署要求高吗

3 个赞

刚才使用阿里官方的接口,简单的不几百字的优化提问,3.5 35b这个模型 17秒,千问3max 3秒..

4 个赞

哪里值得惊艳了?我试了没感觉出来啊

3 个赞

16G显存 或64G内存就可愉快的玩耍

编辑:好像配置要求没那么高

11 个赞

不太懂命名规则,比plus更厉害吗?

坐等小模型

1 个赞

是和其他同规格能本地部署模型比,你要是和用各家旗舰模型比体验那肯定是入不了你法眼。https://www.reddit.com/r/LocalLLaMA/ 这个都是讨论本地部署模型的

1 个赞

35B A3B表示:350亿参数 激活30亿

1 个赞

那个模型更厉害?

以小博大经典案例。

19 个赞

究竟是Qwen3.5-35B-A3B强还是Qwen3.5-27B强?为啥洋人对Qwen3.5-35B-A3B惊讶

1 个赞

感觉跟GLM 4.7 flash差不多大小,有没有人测一测

按理说dense模型要比moe模型要聪明(?),moe模型用稀疏性换来了推理速度,但是到底谁强其实很难有定论

1 个赞

很惊艳吗?

从跑分来看Qwen3.5-27B应该比Qwen3.5-35B-A3B更强,所以疑惑洋人惊讶Qwen3.5-35B-A3B

1 个赞

27B不是MOE部署压力和速度都比35B-A3B的MOE差,但是27B微调起来比MOE容易的多…

1 个赞

应该加一个限定,否则有点标题党了

配置要更低,本地部署更友好,比如可能不能流畅运行27B稠密模型的配置可以运行30B A3B。

1 个赞

部署压力?两个容量差不多

1 个赞