NeatChat现已支持测试模型可用性 v1.1.18

NeatChat现已支持测试模型可用性和延迟,客户端和服务端都完美支持!

如果你在服务端设置了变量,并且不勾选客户端的自定义接口,那么就将从服务端变量获取模型列表,测试的延迟也是服务端代理的延迟。

如果你勾选了客户端的自定义接口,获取模型和测试延迟都将在本地进行,测试的也是本地延迟。

突然有个想法,这种服务端和客户端的界限要可以随意互换就好了,比如客户端填写的变量,也可以交由服务端代理,这对于一些把nc部署在海外,就是想用nc做代理的有帮助。但是一想就感觉这个任务量巨大,后面太闲了再做这个吧。

另外!将在下个版本支持多渠道,以及客户端和服务端渠道同时加载,然后分别路由。

16 个赞

总算加了这个功能

2 个赞

我打算塞个简易版newapi进去 :lark_157:

最近这两版打包的exe程序可能有些问题,后面有时间修吧

tieba_013
太强了佬

1 个赞

嘿嘿,用一个 :tieba_024:

1 个赞

大佬牛逼

等塞进去newapi

原版就是默认用官方的 :bili_001:

1 个赞

调用openwebui的api接口直接用就可以

1 个赞

大佬,能否加个清除上下文记录标记,可自由移动的功能,就像调整聊天记录的位置一样

1 个赞

已经切换到 neatchat 了,支持佬!

1 个赞

什么接口,测试可用性的?

应该是openwebui的曲奇饼干

据说就是直接api请求对话 :bili_038:

本地的话neatchat也有这种类似功能,自定义api就是本地,但是从本地聊天感觉没有服务端调用再转发到本地快,因为一般习惯把这种应用部署到api服务器附近,比如我就把我的nc部署到北京,专门用火山的deepseek,这样是最快的,但是本地直接用火山的api就没那么快了

或者说我更期待一种服务器代理的模式,就不用每次修改服务端配置了

我有点没懂 :lark_157:

:tieba_098:才知道原来neatchat自定义接口是本地请求,还以为是走服务器请求的

不知道openwebui 的新功能,允许用户使用自定义接口是怎样走的

还有nextchat会把内置的key明码传输,对于纯小白来说太有可能被c了,毕竟一般都不会做什么加密,请求接口也很喜欢同域名下设置newapi或者oneapi,很容易被找到 :rofl:

1 个赞

image
就是这种消息,点出来就固定了,不能移动,可以自动移动的话,方便选择聊天记录哪些作为上下文

2 个赞

嗷嗷,我懂了,好想法

越来越强大 了

1 个赞

纯小白来了,明码传输什么意思,我有点怕啊,
key是指api吗
我nextchat直接扔huggingface和vercel上的(加密,加密是什么),难不成等于裸奔