Open WebUI 你们能不能稍微重视一下产品呢😅

一个 GPT-5.2 xhigh 就给你整到 Chunk too big 了??:rofl:

钱是花下去了,结果是没有的

GPT-5.2 xhigh 是什么很不常见的使用方式吗?没有测试过吗?长推理 Chunk 就直接爆了???

0.7.2 的 Native Tool Use 和内置工具也是一坨,该调用的时候不调用,不该调用的时候乱调用

提示词是不会写的,Native 工具调用是会干扰模型的

测试是不做的,Issue 和 PR 是不管的

满脑子就只知道 Enterprise 商业化


12 个赞

惨惨欸……
摸摸啦,似乎确实有点点差欸w

3 个赞

官方在吗?

2 个赞

不在,官方现在只想着赚钱:rofl:

5 个赞

兰兰:pleading_face::pleading_face::pleading_face:

3 个赞

owui感觉不往前走好久了

这个工程是论坛大佬开发吗?

有个论坛大佬 fork

你们都在社区买房了,响应这么快,还有右下角的萌是怎么做到的

是虫洞广场的二次元板块

可以看看这个帖子

评论是不如佬友的二开一根

1 个赞

佬暂时先用下我的过度吧,后续等我新版本上线会更好用


3 个赞

我GPT-5.2 xhigh是用函数调用的, 思考20分钟也不会断.整体思路是(让AI总结的)

用户请求
  |
  v
[图片标准化/压缩]  <-- _compress_data_url_if_needed / _normalize_message
  |
  v
[发起请求 stream=True + TIMEOUT=600]  <-- aiohttp.ClientTimeout + session.post
  |
  +--> 如果 400 参数不支持?
  |        |
  |        +--> ENABLE_DOWNGRADE=True 才会:去掉 reasoning_effort 再试一次
  |
  v
[流式读取 response.content]  <-- async for line in response.content
  |
  +--> reasoning 有就进 <think>(思维链展示)
  |
  +--> 打字机缓冲输出(防刷屏) <-- asyncio.sleep(TYPING_SPEED)
  |
  v
输出完成 / 或报错提示



“xhigh 思考太久卡住→报错”
主要靠:✅ TIMEOUT 拉长 + ✅ aiohttp 异步(不阻塞)
次要兜底:✅ 图片压缩减少网关 502/400(很多时候根因在这)

“因为 xhigh 参数不支持而报错”
靠:✅ ENABLE_DOWNGRADE 的降级重试(你默认关着)

“长思考后瞬间刷屏”
靠:✅ 打字机缓冲(asyncio.sleep(TYPING_SPEED))

“思维链展示”
靠:✅ _extract_reasoning_and_content + <think> 包裹(前提是上游真的给 reasoning)
3 个赞

fastapi是这样的:melting_face:

4 个赞

佬很强!

期待可以有稳定企业版本,我直接把一个公司的迁移过来,OWU现在连原生Gemini接口格式也没,实在难绷 :rofl:

会有的佬,后续会慢慢优化起来,现在重心还在接口功能和项目精简上,原版现在真的是有点拉 :distorted_face:以至于我的工作量非常巨大,而且最近越写越发现原来项目有些地方的逻辑处理非常多余。。。。

5 个赞

佬友的项目兼容原来openwebui的用户数据吗,用的人有点多,虽然都是同学朋友之类的,但是让一个个跑去重新注册有点麻烦,只要用户数据就好了,历史聊天记录什么的我重新导入都行

数据库的代码部分目前我没有动,理论上应该不会造成用户数据丢失,但保险起见,佬还是等我后面有空确定一下,这两天手头没电脑

好的好的,感谢佬