谷歌为了避免gemma给出错误回答,强制开启搜索

这个真的很考虑用户体验了

关键就是谷歌模型就是很不喜欢搜索

以前拼尽全力都无法让哈基米搜索(尤其是在不思考的情况下)

不知道开源模型会不会不一样

另外他这个自我介绍有了很多新意
算是我看到没有提示词默认情况下的最好的一版了

很清醒 内容也很有帮助

等会我测一下能不能涩涩

毕竟这款模型拳打K2.5 脚踢哈基米2.5pro()


测试一下搜索功能:


(看错了知识截止日期,问了一个在知识截止之后的事情)

不过发现全新机制
我是开启不思考模式
如果让他联网搜索,或者他选择联网,那么会强行触发「思考」 其实是工具调用,调用完之后思考框会消失

5 个赞

期待期待

1 个赞

太快了w

刚才写了太多内容,竟然把最重要的他的回复的截图都忘记放上去了()

2 个赞

gemma不是gemini?
Gemma感觉快查无此人了说是(

gemma是开源模型 Gemini是闭源

那个跑分好像也是AI生成的 把gemma写成Gemini了()

总之谷歌在aistudio里确实称其为最高质量产品

突然发现他的知识截止日期是4月3号
恐怖如斯

2 个赞

等一下,gemma4出了?
我没关注草
我明早跑跑试试,我还想着Gemma查无此人还上搜索说是

很强

MoE?

1 个赞

4个版本, e2b e4b 26b-a4b(moe) 31b(dense)

只有一个32B的稠密模型说是,我去看看报道了
要几把饿死了,我得整点吃的

2 个赞

更新了一下对所谓最新的知识库的简单测评

狐狐可不要亏待自己啦

之前谷歌模型,总是不搜索,体验太差了,问啥都不知道,需要我手动让他去搜索


knowledge cutoff 好像写的是2025年1月? :face_with_monocle:

1 个赞

好吧,是我看错了,我看成下面一行了
我是笨蛋

本地部署又多了个选项~

不过Google的知识库好像很久没更新了诶

呃呃呃
首先,MoE注定吃大显存了(悲),(真得那天给自己上96G/48G魔改卡了)
其次,似乎主打Agent和Coding
最后,跑不动,显卡应该只能塞得下E4B了,或者是 26B A4B的4bit 量化,极限了

1 个赞

gemini3.1pro在某些方面都不是很尽如人意,这个小模型真的有这么强吗…:distorted_face: