@HXM 这篇文章我读完了,很有意思;按照文章里面对于 Claude 的描述,似乎它计算一个加法,并不是通过什么内置的计算器来完成的,而是完全的神经网络推理,但是跟我们想象中的人类计算加法的方式很不一样;
有趣的是,这篇文章后面也承认,计算题目越复杂,它犯错的几率就越高,某种意义上来说,这跟大模型对话胡说八道的时候是一样的;所以,对话胡说八道是大模型的幻觉,计算错误也是大模型的幻觉,目前大模型确实表现就像人脑一样,是不能执行精确的任务的;
另外,我在 deepseek ,Gemini 上测试,其实大模型本身并不能完整执行一些比较复杂的代码,至少我说让它计算圆周率第 9900-10000 位,他会生成正确的代码,但是自己不能执行;所以大模型内置解释器的想法也不对;
我理解,就是大模型对于数学等任务的理解,跟人类类似,人是怎么仅仅靠思维算加法、乘法的,也许要比计算机用二进制计算复杂的多; |