首先,我给出了一些数字求和,得出以下错误结果,这与我已知的结果不一样,于是我检查了计算过程,复制了他的计算过程,Excel求和出来是正确值,不理解它的结果怎么的出来的
于是我又问了下它,它居然说算错了,还能给我写个Excel自动加法,让我自己检查,离谱
首先,我给出了一些数字求和,得出以下错误结果,这与我已知的结果不一样,于是我检查了计算过程,复制了他的计算过程,Excel求和出来是正确值,不理解它的结果怎么的出来的
大模型都这样
我的理解是他相当于在脑子里给你口算 ![]()
因为没人把加法口诀发到网上,自然就没有对应的语料然后就没有对应的词向量,很正常,有点像你问我扳手为什么不能剪开快递袋,你大力点也能打开
用推理会好些,没有推理的感觉只能查查东西
因为大模型本质只会推测,除非fc调用加法工具,不然他回答的一切都是给予自身的知识库进行推测
理解了,所以它只是个大模型
大模型不会做计算,只是用概率推测下一个最可能出现的词是什么。
大模型的推理本质上是用强相关性代替因果性,计算需要真正的因果关系
你计算 3 + 4 → 数手指;大模型 计算 3+4 → 从百亿数据库里 Select 匹配向量数据最接近的答案,如果存在多个近似值则随机返回一个答案。
因为他不是算出来的,是猜出来的
因为大模型不会计算,他只是在根据上文生成下文,上下文只有字符概率上的相关性,没有因果性
现在很多不专业的人给大模型定个角色就真的把大模型当成对应角色用了,这种做法是很离谱的,一定要认识到大模型本身的局限性
GPT是语言模型,它不太擅长数学。如果想解决数学问题,可以通过代码来实现
算数不如计算器w
对于这种问题他们为什么不会自己调用函数进行计算然后输出结果呢,我记得问问题的时候他会自己写代码然后计算结果啊
你就说快不快吧.jpg ![]()
这是功能设计问题不是大模型能力的问题了,正经网页版一般都有代码调试器工具,API 那种是调用 API 那方自行设计工具。
猜的是真快 ![]()
GPT数学计算是用量子力学在瞬间拟合出来的,很强。
那个claude官方有写blog,AI是如何做加法的。和人脑算法完全不一样,用的是逼近算法,不是线性加法。
我以前一般用复杂的乘法,来测试不同AI的心算推理能力高低。最近不太好用了,AI已经学会调用后台计算器工具,写代码算了。
都是瞎算的
这样啊原来如此