突发奇想,R1的卡顿和限流是否故意为之,实则是协助国家一起为国内AI普及的水平提升?

如题,我是这么想的:
DeepSeek火爆全球这么久了,国外用不了现在,国内也慢慢的基本上找了代替品,但是DeepSeek虽然不是大厂,但是临时请一些外援讲自己的服务器扩大服务,我想应该是能够赚不少的,但是好像并没有这么做(不知道是否真的可以这么做),似乎对自己的卡顿已经是采取隐形限流限速式的方式去让用户不去频繁的用他们的R1,很多人的API也是卡(包括我)。

再加上最近的手机厂商、电脑厂商、各大云服务、各大知名应用APP,有能力的基本都在自己部署,或者租用云服务进行部署,给用户用,以此作为卖点,免费给用户。

我感觉比之前第一波ChatGPT火的时候还要更让国民普及AI了,以前可能年纪大一点的就知道个AI很火,现在连我爸连我老舅都开始在手机上下载DeepSeek,没事就问问啥的,估计今年要不了多久,基本上各个手机厂商的语音助手都接入R1,微信也接入,百度也接入,这一波直接全民普及,让大家的整体AI的了解和需求都提示一个档次好吧。

这样以后再发展AI产业和AI相关的服务就更加的顺水推舟了。

25 个赞

啊这…没必要,真没必要…
不过有一点是对的,ChatGPT出来这么久了,这波终于在国内极大地普及了生成式ai,还是很难得的。

3 个赞

也是大早上的乱想,估计确实DeepSeek的体量太小了,没办法短时间支撑起这么大的访问,无奈的只能这么做吧,恰好让其他的更多厂商都自己普及起来

不行就是不行,找借口做什么

1 个赞

呃呃,DS火之前可是60tps,还不限制tpm

3 个赞

想想其他第三方哪个流量大了就扛不住,大善人硅基现在卡成什么样子,真没那么多阴谋论

建议把模型参数标上哦,V3\R1 都是庞然大物,慢是肯定的

没那么复杂, 一个很小的问题 ,乘以14亿 ,都会变成一个大问题

2 个赞

没有稳定的盈利,把规模搞大了容易死

:sweat_smile:openrouter的供应商都不一样,有什么好比的
拿两个不同级别硬件放一起比
怎么不拿sambanova的r1来比呢

1 个赞

很明显就是不够算力而已吧.
梁文锋又不是老马那样随手拿就是10w 20w张H100
他那几千张H800阉割过的,还要用来训练新模型,能空出来部署推理给大家玩的就那点了.

说起老马,他家grok真是拉了.
声称自己有20w张H100集群,就弄这跑分?对比的还是Deepseek V3,服了.
这算力对比和结果,跟抗中 vs [美+联合国军] 朝鲜战争似的

1 个赞

倒也不至于用不行形容,人家之前志不在此罢了。

1 个赞

我也有这个想法,因为我发现,使用他API的话输出其实并不慢,但是他限制你请求,一旦成功一次之后,要很久才能再次请求成功

2 个赞

闭源模型去哪里标,速度采用OpenRouter平均值,不过我觉得倒是可以补一个最快渠道的速度以示公平,我改改

想的不错,你会是最年轻的新任接班人

2 个赞

肯定不是

不要过度解读,就是服务器扛不住了,一下子全国火了,不知道有几百上千万的涌入

3 个赞

单纯就是服务器扛不住而已

官网的使用体验确实糟糕,不过这也在情理之中。

确实是奇想,羡慕能有这样的思考想象力

2 个赞