鉴于gpt5实在不喜欢说人话,回复信息密度高,又调教不好,但是手里有几个gpt号一直没办法用好,遂想回到老模型看看。o3说话很正常,智商也高,也能搜索,有没有人深入对比一下两个gpt的高级模型呢?
这一点其实我一直觉得是好事
,核心改进之一(
作为阅读来说看不懂啊,看起来很费劲,特别是专业知识,能给你扯一堆专业词汇,一句话三四个没听过的专业词汇,我想如果gpt5拿来做研究,只有博士能够轻松看懂gpt5那专业描述。另外就是如果拿来写文章真是惨不忍睹
单纯智力那肯定是5高一些的,看佬用途,o3大部分场景够用的
OpenAI的所有模型都是真的人机
日常交流还是claude/gemini好些
这个认同,从5到o3转变我个人感觉回复看起来很舒服,都能看懂,不过o3不知道能不能做到claude那种程度
是这样,我是claude和gpt一起用,claude用于文字,gpt做搜索和思路,但是gpt5用着实在太难受了,所以才想看看o3是不是也能好好用。哈基米就不提了,我用的过程明显感觉智力弱于前二者,也不会主动网络搜索,一个数据集名称claude和gpt都知道是什么,哈基米和我说去网络搜索了也找不到这个数据集
反正我一直是claude,gemini太癫了
ChatGPT的话,o3的话站内不是有佬的脚本可以找回吗(?
有在用的,只是之前太过于相信gpt5的能力,最后越用越难用才想着回到o3,但是这两个新旧模型的对比好像没多少人去研究
我有时候得让 gpt5 thinking 回答完再让 gpt5 instant 改成说人话才稍微能看一点 ![]()
GPT-5 明显是 o3 的全面上位替代。
主要体现在回答知识面的广度、精准度、低幻觉。
当然,它是有时候不怎么说人话的,很难扭转过来。
o3 我是不怎么用的,内部幻觉太重,我觉得甚至不如 o1。
注意,GPT-5 的用法和之前的推理模型完全不一样!!!
大部分模型,你给一个模糊的提问,它就会大概回答你。
但 GPT-5 不是这样的,你必须提问得很详细很具体,一方面,它的指令遵循能力超强,带来的后果就是非精确表达的意图理解没那么好。
并且,如果你问得泛,它就会回答得泛,然后由于广度大,为了在有限长度内保证深度和信息量,它就会使用大量黑话,极致压缩的表达,导致人类很难理解。
所以,提问一定要详细!!!
喜欢gemini那种,解释完会给你一个类比的例子,虽然不一定准确吧,但是用来初步了解某个东西,有个直观的例子还是很不错的
我经常用o3 ,因为5的限制太多,只能说5t确实聪明一些,但是用o3 也差不了多少而且o3能回答的问题更多不拒绝
这也许就是降低幻觉的产物,你觉得看着难受,可能专业表达就是要高大上一点
如果不是太难的题目,可以考虑使用claude
o3解释题目可能会更人话一点
或者试一下gpt-5-pro,会比gpt-5-thinking说的更好一点
每次问题都是gemini洋洋洒洒一大堆,gpt简短几句话,但是有些时候gpt给出的思路很惊艳,不过就算让他解释也随便解释一通,懂的人不看也懂,不懂的看也看不懂,扔给gemini发现中间的步骤跳了一个太平洋
信息密度确实有点过高了,不喜欢说话,不过指令遵循能力非常强,用一个好的提示词应该会缓解
我一直觉得,要是哪天gpt5不再那么犟,才更像个人,而不是听命奥特曼政策输出。
它的任务请求必须被细化,否则难有预期的效果
o3 pro没有了(出5之前的时候是有一段时间给到了pro的吧)
o3 pro做题能力更强一点 尤其是研究生化学,不过具体的截图没有保存,那个时候是和aistuduo里面还没降智的 2.5pro做对比的(2.5不开联网,有一些比较偏门的内容可能会出错)。可以五五开
O3联网思考更多,时间花费更长。Thinking的话,推理更多。