19 个赞
哈哈,默认值……
3 个赞
Open WebUI感觉很慢,没有cherry快
4 个赞
哈哈,慢在UI上
2 个赞
openwebui像cherry那样支持那么多厂商吗
1 个赞
没有那么多,都要自己输入。还是cherry 方便。我现在都是cherry做常用的了
1 个赞
这个默认值有没有全局改的地方?
1 个赞
发生了什么事
1 个赞
默认2048…
1 个赞
我用了幾個月openwebui,現在卡的不行,準備轉librechat了,雖然功能沒那麼多,還要編輯文件,但幾乎0延遲真的用了就停不了
1 个赞
cherry是不是还要改下默认?
有些本地部署的模型还不回答敏感话题,脏话都不接…
1 个赞
Toekn???
1 个赞
没改过默认值,用r1实际输出1w tokens。
國內自己部署的模型包括R1 好像都自帶審查,比Google的還嚴
好家伙2048
还得是cherry方便
哈哈哈,背不动呀背不动
@F-droid
别闹,这个锅,Open WebUI 还真不要背。
这个默认值,如果你不修改,它调用 API 是不传这个参数的,用的是后端推理引擎的默认值,如果你修改了,它调用 API 才会传这个参数。
你这是散布谣言![]()
11 个赞
对阿,我测试要跟它对喷都不行.14B的原版ollama
呐,这就是专业
