一个 GPT-5.2 xhigh 就给你整到 Chunk too big 了??![]()
钱是花下去了,结果是没有的
GPT-5.2 xhigh 是什么很不常见的使用方式吗?没有测试过吗?长推理 Chunk 就直接爆了???
0.7.2 的 Native Tool Use 和内置工具也是一坨,该调用的时候不调用,不该调用的时候乱调用
提示词是不会写的,Native 工具调用是会干扰模型的
测试是不做的,Issue 和 PR 是不管的
满脑子就只知道 Enterprise 商业化
一个 GPT-5.2 xhigh 就给你整到 Chunk too big 了??![]()
钱是花下去了,结果是没有的
GPT-5.2 xhigh 是什么很不常见的使用方式吗?没有测试过吗?长推理 Chunk 就直接爆了???
0.7.2 的 Native Tool Use 和内置工具也是一坨,该调用的时候不调用,不该调用的时候乱调用
提示词是不会写的,Native 工具调用是会干扰模型的
测试是不做的,Issue 和 PR 是不管的
满脑子就只知道 Enterprise 商业化
惨惨欸……
摸摸啦,似乎确实有点点差欸w
官方在吗?
不在,官方现在只想着赚钱![]()
兰兰![]()
![]()
![]()
owui感觉不往前走好久了
这个工程是论坛大佬开发吗?
有个论坛大佬 fork
你们都在社区买房了,响应这么快,还有右下角的萌是怎么做到的
是虫洞广场的二次元板块
可以看看这个帖子
评论是不如佬友的二开一根
我GPT-5.2 xhigh是用函数调用的, 思考20分钟也不会断.整体思路是(让AI总结的)
用户请求
|
v
[图片标准化/压缩] <-- _compress_data_url_if_needed / _normalize_message
|
v
[发起请求 stream=True + TIMEOUT=600] <-- aiohttp.ClientTimeout + session.post
|
+--> 如果 400 参数不支持?
| |
| +--> ENABLE_DOWNGRADE=True 才会:去掉 reasoning_effort 再试一次
|
v
[流式读取 response.content] <-- async for line in response.content
|
+--> reasoning 有就进 <think>(思维链展示)
|
+--> 打字机缓冲输出(防刷屏) <-- asyncio.sleep(TYPING_SPEED)
|
v
输出完成 / 或报错提示
“xhigh 思考太久卡住→报错”
主要靠:✅ TIMEOUT 拉长 + ✅ aiohttp 异步(不阻塞)
次要兜底:✅ 图片压缩减少网关 502/400(很多时候根因在这)
“因为 xhigh 参数不支持而报错”
靠:✅ ENABLE_DOWNGRADE 的降级重试(你默认关着)
“长思考后瞬间刷屏”
靠:✅ 打字机缓冲(asyncio.sleep(TYPING_SPEED))
“思维链展示”
靠:✅ _extract_reasoning_and_content + <think> 包裹(前提是上游真的给 reasoning)
fastapi是这样的![]()
佬很强!
期待可以有稳定企业版本,我直接把一个公司的迁移过来,OWU现在连原生Gemini接口格式也没,实在难绷 ![]()
会有的佬,后续会慢慢优化起来,现在重心还在接口功能和项目精简上,原版现在真的是有点拉
以至于我的工作量非常巨大,而且最近越写越发现原来项目有些地方的逻辑处理非常多余。。。。
佬友的项目兼容原来openwebui的用户数据吗,用的人有点多,虽然都是同学朋友之类的,但是让一个个跑去重新注册有点麻烦,只要用户数据就好了,历史聊天记录什么的我重新导入都行
数据库的代码部分目前我没有动,理论上应该不会造成用户数据丢失,但保险起见,佬还是等我后面有空确定一下,这两天手头没电脑
好的好的,感谢佬