26 条回复  ·  2788 次点击
glacer 初学 4 天前
目前的 AI 还不具备逻辑推理能力,本质上仍然是一个海量知识库的索引。chatgpt 在文本,图像等领域的输出只是基于已输入的先验知识进行计算得出的正确率最高的结果,对文本或图像内容中包含的逻辑信息(比如数学题目中提供的推理信息)基本无法处理。
vishun 小成 4 天前
我看到过一篇非常好的文章,可以参考:[当我谈 RAG 时我谈些什么]( https://fatescript.github.io/blog/2024/LLM-RAG/),里面提到一个工具可以可视化展示下一个字的概率。
kw8023cn 初学 4 天前
@a570295535 有没有可能,人脑的运作机制也是类似,只是运算能力更强,所谓的真正拥有,也不过只是数据存储,脑震荡也会导致丢失数据而失忆,或许目前 AI 的处理逻辑和人类不同,但是也是模拟了人类的神经网络算法,我们人类的大脑何尝不是在做索引,现在 AI 的运作已经黑盒了,只要算力足够,能产生出什么样的智能尚未可知,但肯定不是简单的接龙游戏。
kw8023cn 初学 4 天前
@glacer 有没有可能,人脑的运作机制也是类似,只是运算能力更强,所谓的真正理解,也不过只是数据存储,脑震荡也会导致丢失数据而失忆,或许目前 AI 的处理逻辑和人类不同,但是也是模拟了人类的神经网络算法,我们人类的大脑何尝不是在做索引,现在 AI 的运作已经黑盒了,只要算力足够,能产生出什么样的智能尚未可知,但肯定不是简单的接龙游戏。
pursuer 小成 4 天前
定义思考很困难。数学方面,现在其实是有机器证明的,还有证明逻辑严谨性的 LEAN4 。而且有些数学定理证明过程其实就是倾向于枚举的。总不能让 AI 学习去如何"注意到"。 不过做机器数学证明的性价比很低,大概也没多少资源愿意投入这个项目中。
huangsijun17 小成 4 天前
现在的生成式语言模型的核心能力是“能说会道”。他的模型本体所擅长的,也是唯一擅长的是往后接话。无论对错,My 逻辑,只考虑往后可以说什么,最应该说什么,然后继续往后堆话。
huangsijun17 小成 4 天前
@shyangs #2 小学生都知道 3.8 比 3.11 大,但 GPT 会搞错。没些可能是小学肄业的人不做讨论。
123
返回顶部