我的理解就是大模型是一个 Token 预测的网络,通过大量数据的预训练,从输入的 context 中预测下一个最有可能的 token ;那我有一个很小白的问题,诸如数学运算,比如 673 X 3666 = ? 这种运算,大模型是如何通过 token 预测得出答案的?而且之前也有一些很明显的应用,比如让大模型扮演一个编译器等等执行非常精确的运算,我实在想不通,如果不是由专有的程序,仅仅依靠神经网络,就能执行这种类似的运算吗?

我跟 Gemini 聊了半天,发现一个非常有意思的事情,比如我问他 "请告诉我圆周率小数点后 x 位的数字",当 10 位,30 位,50 位的时候,都没有问题,但是超过一定量,比如 1000 位,它就会宕机; 如果用 deepseek 的推理模式,他就会自己计算;所以我的理解是:

1. 大模型理解问题,是靠神经网络进行 token 预测的
2. 大模型解决数学类的精确问题,必须是混合模型(MoE),调用专门处理精确计算的那个部分,才能得出正确答案?

这个理解对吗?
举报· 2164 次点击
登录 注册 站外分享
20 条回复  
sujin190 小成 3 天前
显然并不是,所谓专家网络也是神经网络哪来的精确计算模块,人也是看看书说 673x3666 咋算的,AI 也是一样的可以啊,所以人不借助工具算不准,大模型也一样啊,关于大模型为啥可以通关基础的 token 预测学习到更深刻的知识并且能思考就不是一两句话可以说清的了
ltyj2003 小成 3 天前
但是可以引导 ai 编一个程序,来实现算 1000 位的任务。
wyntalgeer 初学 3 天前
方向就错了,人类发明二进制计算器就是为了补足人脑的运算缺陷,而人脑是大模型的天花板,你指望大模型突破人脑天花板,建议换个方向老铁
XiLingHost 小成 3 天前
大模型现在一般是通过调用外部工具来实现精确计算的,可以看看这个 https://modelcontextprotocol.io/introduction openai 还做了一个 function calling 标准
xuld 小成 3 天前
原理很简单,大模型自己不会算,但它可以生成算的代码,然后执行代码。就像人类自己不会算,但他会用计算器。
HXM 初学 3 天前
Antropic 前两天发了一篇探讨 LLM 可解释性的 Blog ,挺通俗易懂,里面 Mental math 小节讨论了你提出的这个问题。 https://www.anthropic.com/news/tracing-thoughts-language-model
happyn 楼主 小成 3 天前
如果说大模型生成代码,然后执行代码算,那么,大模型本身可以模拟编译器、解释器吗?还是说它内置了编译器、解释器?
listenfree 小成 3 天前
个人理解以前的直觉模型就是根据所觉的语料直接概率给你,错误率高。推理模型就不一样了,计算六位数乘六位数都没问题(我试过 Qwq32B-4bit),它根据语料学会了乘法,理论上,它就会乘法了。准确性很高。但编程和乘法比起来,就复杂多了,个人觉得编程还是直觉加少量推理确定方向个编程的走向。
Uta 小成 3 天前
可以参考下这个视频,我觉得讲的挺不错的。在 20 分钟左右的时候又讲到你这个问题: [关于 AI 的深度研究:ChatGPT 正在产生心智吗?-哔哩哔哩] https://b23.tv/iunELVu
123下一页
返回顶部