感觉Lobechat已经吊死在它云端上了

如题,最近在刷L站的时候看到的Lobechat的在线部署,

纯白嫖,开心啊,本地客户端出来这么久了,总该是好很多了吧
于是费了点功夫,在搭建了一下试一试,因为之前用过,知道它的尿性,所以在电脑上只用桌面端客户端,云服务只做对话数据同步,在我想象中,我都用本地客户端了总归可以流畅使用了吧
发现我纯属想多了,还是卡的不行,说实在的除了能用本地MCP,我并没有发现它与网页端有什么区别
而且受限于数据库,我点开任何一个对话,它都需要加载一下(受限于白嫖的数据库,这种等待的感觉特别明显),特别是加载助手列表那一下,还会卡动画
我都用本地客户端了,就不要省这点资源了,你一次性卡完不行吗?
我能忍受偶尔的卡顿,但你不能一直卡啊
还有那个逼对话,我都不知道,我本地客户端,为啥对话快了还会卡,特别是调用MCP蹦那调用对话框,一抽一抽的往外蹦的,

我本地电脑的大把的资源,用啊!!!非惦记云端那点算力。

按理来说我用本地客户端,就是图本地电脑性能强劲,云端在此时最多就是做一个对话记录同步,配置同步的工作,可现在完全舍本逐末,我的对话还是会从云端过,性能依据垃圾,对话卡顿依旧

有人会说,你直接用本地数据库不就好了,实话我没用过本地数据库版本,我就是图一个多端同步方便,不然我为啥要用Lobechat

39 个赞

我用过一次,b站上有人用这个公益,挺好的一个行为,但是就是被这个Lobechat祸害了,导致没有人赞助 :laughing:

7 个赞

从刚开发就一直存在的问题,到现在还没有很好的解决嘛(话说很久没用了,一直在用 CS)

可以期待下 2.0

1 个赞

我应该是已经更新到2.0了没有感到本质的区别,它的很多卡顿,应该是云端数据库造成的,数据随用随取,这就导致,点开啥都得取
图片

1 个赞

那就无解了,我之前用的时候还能忍受卡顿,后来切换到 CS 发现流畅的一塌糊涂就切过去了

不过随着版本更新,CS 也开始臃肿了,偶尔会卡一下,不过还在我接受的范围内

它的桌面端已经比web端流畅很多了,但确实还有点卡,他的那个web端,在手机上是真的卡呀,卡爆了,现在出的手机app好多了

1 个赞

我觉得云端只是一小部分,架构的问题更大吧,我就很不喜欢 next,用过的网站都觉得卡

3 个赞

减少拉取次数,加大拉取范围呗。别管用不用,先取下来再说存本地,本质都是文字,我取一个对话和取一个助手下的所有对话,差不了多少

Cherry Studio 不也是可以同步吗?移动端也开始测试了

lobechat的卡感觉是全方位的…

1 个赞

你要不试试openwebui? 说实话,我觉得现在能用的就openwebui和lobe,其他的功能全是缺斤少两的

1 个赞

以后 lobechat 的客户端应该会做本地数据库缓存,那样就不用每一步操作都存取远程数据库了。

lobechat的卡顿不是因为数据在服务器导致的=
(chatGPT数据也在openAI服务器上也没见它那个卡啊)

主要是UI组件的实现方法导致的 - 现在是由服务器渲染HTML发送给前端 (作者之前有解释过原因)

之后会逐步替换成新的方案大幅度提高UI响应速度

4 个赞

如果想多端同步+流畅
目前只推荐AI as Workspace 这款

1 个赞

之前试用的时候, 部署web加本地数据库版, 也是卡

讲真,那么久了,除了硬堆功能,我真觉得这玩意儿卡,而且UI也没那么,符合我的审美
:lark_023:
其实最开始这个支持多渠道和多角色AI反而是我觉得最好用的,后面不知道改啥去了
:lark_023:

1 个赞

chua实,虽然我是几乎最早的一批用户,但自从用过cherry后我就没怎么碰过lobe了

不,它这个项目本身的性能就有问题,我部署到自己的服务器上(完全自部署,包括本体、oss数据库、OAuth鉴权),一样卡得亚批 :bili_017:

3 个赞

这个技术方案设计真的有大问题,客户端的东西,用什么服务端渲染。。
官网渲染图确实挺好看的,但是实际用起来,感觉还是很粗糙。

2 个赞

之前用过 感受就是 花里胡哨 华而不实

2 个赞

和在哪里渲染无关,这个项目本身的性能就有问题

他说得对

从我刚刚接触的24年9月起,到现在,一点儿改进都没有 :bili_017:

3 个赞

我记得这个作者在站里来着,关于卡顿他回复过,我去找找,这个