这路线我也想 ![]()
4 个赞
不是应该疯狂加GPU吗?把模型参数搞到几T,让智能涌现更明显。
2 个赞
Gemini 2.5 Pro好像更喜欢研究动物和人类的意识,或者说研究自己怎么来的
4 个赞
模型、昆虫、人类的注意力机制是相通的吗
模型不会思考,它说的只是命中了之前学习的某个知识片段,看到它说人话就把它拟人化是思维的缺陷
人自己都没有搞懂自己怎么思考,意识是什么到现在都没有定论,认为ai不会思考会不会有点自大
1 个赞
看怎么对思考定义了,思考本质是黑箱逻辑,人类目前已知思考会有什么结果,思考是怎么进行的(神经元),但是中间的过程是不知道的,跟ai目前的深度学习有异曲同工之妙,但是,目前ai LLM基本上还是贪心算法逐步吐字,跟人类一样预先形成逻辑再输出还是差不少
2 个赞
中文房间w
现在主流llm不都是这样的吗。慢思考模式,把草稿和输出分开
你说的这个是思维链Cot吧,ai无论思考与否,都是逐字推算的,人类是有直接组织逻辑的能力,这个还是差很多的
听起来确实是很有吸引力的议题
人的思考也是单线程的,只是速度快。
人搞不懂自己的机制不等于人搞不懂ai的机制。ai就是程序的产物,ai的“思考”就是预训练+transformer架构的结果,如果ai真的具有思考能力,那就不会连很多最基本的幼儿园小朋友都会的问题都弄错了
能不能回答幼儿园问题又不是判断有没有思考能力的基准,如果一个人不能回答幼儿园问题,那就没有思考能力吗
如果一个人具有思维能力能整明白高级问题,那么低级问题整不明白是很奇怪的,而ai低级问题整不明白是普遍现象,这就是算法生成的原理
人对思考是什么没有定论,人知道ai的机制也不意味着ai不能思考
Cot能力加上以后,大部分降智问题(幼儿园问题)都能回答出来了
1 个赞
思考没问题,人类也是从基础理论和知识进行思考。模型可以模拟思考的。





