现可以在Qwen chat上可体验。
reddit上都炸了,都在惊艳Qwen3.5-35B-A3B的表现。
注:说的是本地部署。该模型是小模型,和其他超大参数的旗舰模型比不了。
有8G以上显存,32G以上内存的佬友可以自己部署Q4量化的玩玩。
reddit上都炸了,都在惊艳Qwen3.5-35B-A3B的表现。
注:说的是本地部署。该模型是小模型,和其他超大参数的旗舰模型比不了。
有8G以上显存,32G以上内存的佬友可以自己部署Q4量化的玩玩。
怎么说,本地部署要求高吗
刚才使用阿里官方的接口,简单的不几百字的优化提问,3.5 35b这个模型 17秒,千问3max 3秒..
哪里值得惊艳了?我试了没感觉出来啊
不太懂命名规则,比plus更厉害吗?
坐等小模型
是和其他同规格能本地部署模型比,你要是和用各家旗舰模型比体验那肯定是入不了你法眼。https://www.reddit.com/r/LocalLLaMA/ 这个都是讨论本地部署模型的
35B A3B表示:350亿参数 激活30亿
那个模型更厉害?
究竟是Qwen3.5-35B-A3B强还是Qwen3.5-27B强?为啥洋人对Qwen3.5-35B-A3B惊讶
感觉跟GLM 4.7 flash差不多大小,有没有人测一测
按理说dense模型要比moe模型要聪明(?),moe模型用稀疏性换来了推理速度,但是到底谁强其实很难有定论
很惊艳吗?
从跑分来看Qwen3.5-27B应该比Qwen3.5-35B-A3B更强,所以疑惑洋人惊讶Qwen3.5-35B-A3B
27B不是MOE部署压力和速度都比35B-A3B的MOE差,但是27B微调起来比MOE容易的多…
应该加一个限定,否则有点标题党了
配置要更低,本地部署更友好,比如可能不能流畅运行27B稠密模型的配置可以运行30B A3B。
部署压力?两个容量差不多