Nextchat 使用 Gemini 的话 请求打不倒 one-api

很奇怪的一个问题,不知道有没有佬友遇到过

就是我自建 one-api + nextchat,然后下面我连续切换 gpt3.5turbo gemini gpt4


我这些模型应该是都有配置相关渠道,也测试能通,直接curl调用apikey也正常
现在核心问题是,我看oneapi的日志,就只有gemini请求就直接没打过来,这个是啥原因呢?


upd: 我发现确实,改端点没用,打到oneapi是个404,所以暂时解决方案只有用自定义model name,让 oneapi 带上 openai格式的key和接口地址来请求,然后再 oneapi 渠道这边自己重定向。

其实我确实暂时没特别懂为啥 oneapi 不去直接也适配一下另外两家的接口地址,看了一眼源码也直接走 Relay 这个 handler 应该就行了,懂的大佬路过可以说一下

1 个赞

格式错了吧?不是openai格式的

1 个赞

:rofl:,因为你的key走的是openai格式,nextchat走的是gemin官方格式

1 个赞

可恶的 nextchat,不知道害多少人走了渠道类型的坑 :face_with_open_eyes_and_hand_over_mouth:

1 个赞

我记得 nextchat 的 gemini 是直接向谷歌请求的而不会通过 oneapi。你给 gemini 模型自定义别的名字就可以通过 oneapi 请求了。

1 个赞

用 one-api 重定向一下名称,不要用 gemini 开头

1 个赞

谢谢大佬,搞定了

谢谢大佬,我才想起来nextchat是按模型前缀去匹配端点的,这个确实忘记设置了,改一下 constants 里边的端点就搞定了

其实也不怪 nextchat 了,自己太追求开箱即用了,忘了端点是预设而不是智能确定了 :rofl: 确实有点蠢了这波 也没想着请求没过来那就应该看前端了 还好佬友们给力一眼就看出问题了

nextchat 现在就处于想迈步子但只迈了一半的尴尬境地,过去只适配 OpenAI 格式虽然简单但正好和 one-api 契合,加上界面清爽吸引了大量用户。现在也想支持多种模型请求类型却用了最笨的名称匹配方法,它肯定也想改成 lobe 那种模式(连V3界面也奔着 lobe 模仿去了)但是工作量又太大,不知道猴年马月能搞出来。

1 个赞

lobe 还不知道是啥匹配方案,有空也学习下

lobe支持多种类型,并且在类型里支持自定义模型名称,这样就可以在 OpenAI 类型里填各种模型名称了, lobe 还能获取 api key 支持的模型列表,省得一个个手动添加,在模型配置方面可以说吊打 nextchat,缺点就是静态资源太多导致加载太慢

1 个赞

原来如此, 学习了:smiling_face_with_three_hearts:

From 快问快答 to 开发调优