大家觉得ai 的那个(“基本上”到顶了)的时刻到来了吗?

用电脑打比方, cpu 和GPU 不断发展,以前(20年前10多年前)不断的要跟新买新的, 因为新的能玩的游戏真的和老cpu gpu 不一样,而且新的产品价格很贵。

但是现在,说穿了,用个旧的cpu ,gpu ,很多游戏都能玩。 在新的产品, 质变已经不是很多了

手机芯片也一样。 现在买个便宜的1000多的手机, 体验和最高端的产品并没有很大。 (但是放在6,7年前, 差距肯定是非常明显的)

这东西发展到了一定的层面, 低端和高端差别真的不大了。便宜货能体验最最起码60% 70%高端货的体验。

GPT 发展到 o3 我感觉是一个质变, 到了GPT5 感觉肯定比o3 强大,但是并没有质变。 而且就我问的很多问题, 文史哲方面, 基本上已经到顶了。 感觉不出来,回答还能如何再有大的进步。因为天花板就在那里。

(下一步真的就是马斯克说的 ,自动创造出新的电影。发现新的物理定理 )不然就接近天花板了。

你们怎么感觉呢?

12 个赞

应该是差不多了,等Gemini3.0pro出来就知道了

4 个赞

AI连理解能力都没有,差得远了

5 个赞

远没有到顶,随着革新和进步,前景远大

4 个赞

没有,还能加钱!

1 个赞

同楼上,等Gemini3.0pro出来就知道了

1 个赞

就算是顶,也是暂时的吧

肯定没有啊 看迭代速度就知道了 出新太快证明在高度发展 海绵里的水还多的很

1 个赞

gemini 2.5pro出来大半年了还是顶尖的几个模型之一,感觉现在ai的发展确实慢了不少,但是开源模型的追赶速度很快

1 个赞

文本生成方面 感觉还差一步左右,
代码编程方面 感觉还差两步左右。

claude新模型没有和gemini2.5pro上一代模型拉开明显差距,这就很让人觉得快到头了。

o1出来之前——我以为逻辑推理能力上到顶了

claude-3.5出来之前——我以为编程能力到顶了

gemini-2.5-pro出来之前——我以为数学能力到顶了

个人更倾向于历史证明LLM能力远远没有达到顶峰

3 个赞

纯LLM也远远没到顶,但是进步速度不可能有近两年这么快了,高质量互联网数据都吃的差不多了,剩下的需要清洗大量数据,磨练算法,区分细致场景等等,这些速度和很难快起来。想靠硬件起来了,就能力大砖飞的想法也不靠谱

4 个赞

虽然发展迅速,但远还没到顶

1 个赞

还没到呢,正是打的猛的时候

1 个赞

感觉还没到顶,主要是应用场景还没被完全搞定,还会有很多稀奇古怪的应用方式被开发出来的。

3 个赞

算力上已经很难有很大提升了(或者说需要投入太大),算法上我认为还是有提升空间的

1 个赞

差的远呢, 就比如llm编程这块就有很大空间,模型强弱基本一用便知,更不用说各个专业领域。 说实话通用的那种常识型的LLM我觉得确实没啥提升了,我平时生活问题问deepseek感觉够用了,下一步卷的方向应该是规模缩小轻量化,最好手机端侧就能跑,现在无疑还差的远呢。

3 个赞

纵向大概遇到瓶颈而“到顶了”,以至于新的模型并没有跟旧模型显著拉开距离,至于瓶颈是客观的还是主观的就不清楚了

横向感觉还是有很多发展空间的

1 个赞

其实我觉得GPT-3.5是一个质变。从3.0的不能用变成能用,后面慢慢变得更强了。

2 个赞