20 条回复  ·  2168 次点击
happyn 楼主 小成 5 天前
@HXM 这篇文章我读完了,很有意思;按照文章里面对于 Claude 的描述,似乎它计算一个加法,并不是通过什么内置的计算器来完成的,而是完全的神经网络推理,但是跟我们想象中的人类计算加法的方式很不一样; 有趣的是,这篇文章后面也承认,计算题目越复杂,它犯错的几率就越高,某种意义上来说,这跟大模型对话胡说八道的时候是一样的;所以,对话胡说八道是大模型的幻觉,计算错误也是大模型的幻觉,目前大模型确实表现就像人脑一样,是不能执行精确的任务的; 另外,我在 deepseek ,Gemini 上测试,其实大模型本身并不能完整执行一些比较复杂的代码,至少我说让它计算圆周率第 9900-10000 位,他会生成正确的代码,但是自己不能执行;所以大模型内置解释器的想法也不对; 我理解,就是大模型对于数学等任务的理解,跟人类类似,人是怎么仅仅靠思维算加法、乘法的,也许要比计算机用二进制计算复杂的多;
happyn 楼主 小成 5 天前
比如就是一个最简单的素数乘法: 863 X 877 = ?,它在大模型的内部到底是怎么推理的?单纯的通过语料训练,就能学会乘法吗? 有这方面的文章介绍吗?
happyn 楼主 小成 5 天前
就是计算这个乘法 863 X 877 = ?,似乎各家的模型表现也不是很统一;
happyn 楼主 小成 5 天前
另外,可以扩展一下,就是大模型能产生自己的推理模式吗? 比如我就把乘法表和几万个乘法示例喂给他,它就能学会乘法吗?
happyn 楼主 小成 5 天前
加法、乘法是有固定的模式的,而从编程语言代码变成二进制的可执行码,也是由固定的模式的,这个模式虽然十分复杂,但是路径是唯一的;似乎非常强的编程人员,也可以在脑子里面自动从 C 语言代码"翻译"为字节码,那么,大模型可以习得这个能力吗?似乎看起来这个过程,跟数学运算是一样的; 所以只要算力足够强,告诉他一门语言的语法规则,譬如 Python ,大模型就可以自己生成一门编程语言的解释器?并能完美执行?
LaurelHarmon 小成 5 天前
不认为 next token 预测可以实现精确的乘法进位 除法这些操作,简单数字靠规律,复杂的依然无能为力。
mumbler 小成 5 天前
@happyn #14 以现在大模型的指令遵循能力完全没问题,给一个自己发明的语言的规则,示例放 prompt 里就能写出这个完全没学过的语言的代码,以前让它模仿鲁迅风格写文章还需要微调,现在给几篇范文就足够了,随着大模型能力进一步提升,学习能力会更强
happyn 楼主 小成 5 天前
@mumbler 这个地方可能我没有表述清楚。我的意思是说,把一门语言的规则告诉他,当前它肯定可以用这门语言写程序,但是它能写一个解释器吗? 比如,Python 的语法规则告诉它,然后把 PEP 的文档喂给它,他可以写出一个简单的解释器吗?
mumbler 小成 5 天前
@happyn 肯定可以啊,但这需要大量 token ,不是一个对话就能写成的,让 cursor 肯定能写出来
kidult 小成 5 天前
这边建议补一下大模型 基础知识,可看这个视频 https://www.youtube.com/watch?v=7xTGNNLPyMI
返回顶部