21 条回复  ·  2431 次点击
forgottencoast 小成 2025-4-14 09:06:07
你要是看了 Andrej Karpathy 的系列讲座,就知道当前大模型的原理,立即可以得出它没有创造力这个结论了。
duanxianze 小成 2025-4-14 09:14:24
我不是专家,但我觉得有,我的思考是,人的大脑无非也是信息和算法的集合体,也许某天算力到达某个节点,或者算法上真的模拟出人类的思考过程,真的能创造出人工智能,也就是说,我认为人类也没什么特殊的,无非也是原子分子,无非也是电信号
tool2dx 初学 2025-4-14 09:29:31
@forgottencoast 这就是一个量变到质变的过程,没人会认为一个 20b 参数模型有智商,但是 200b ,甚至于 2000b 参数就不好说了。 claude 有发布论文,AI 训练结果只是让概率看起来合理,但中间过程有一套人类无法理解的能量流动,这股能量提前决定了后续概率的预测。仅仅因为输出文字结果是概率排列组合,就判断 AI 没有创造力,还是太草率了。 运行本质内部还是一个黑盒。
NDHT 小成 2025-4-14 09:33:51
必然有创造力,比如 Alpha Go 下围棋彻底秒杀人类,未来 1000 年估计都没人能下赢 AI 。
shendaowu 小成 2025-4-14 09:34:13
@mumbler #3 这位朋友你是怎么得出大模型可以进行排列组合的结论的?据我所知大模型的记忆力一般就是上下文的大小。就算是这个记忆力我也无法理解它可以进行排列组合。或者你的意思是它可以在人工神经网络中排列组合? 根据我自以为是的可能是创新的经验来看,这个排列组合可能会遭遇组合爆炸,并不是两两匹配就行了。很多创新的关键概念不止两个。我怀疑人脑可能有专门处理排列组合的“硬件”,但是可能无法通过意识访问。这个对应点子凭空冒出来,没有有意识思维的过程。另外想象和实际一般是会有一些差别的,毕竟语言应该是对现实的有损压缩。因此需要通过实践不断纠偏,我理解大模型基本没有实践的能力。我以外行的脑子思考,如果想要不断实践并纠偏的话,可能需要不断训练,这个成本可能很高。使用大模型一般应该都是使用训练好的模型。
kdd0063 初学 2025-4-14 09:39:08
先达到能完全自主无监督无数据集,无过程定义地自我攫取知识,自我更新网络再来谈创造力。
loryyang 小成 2025-4-14 09:40:32
有的,只是他的思考链路还是比较短的。人类的思考是长期的,但是它迟早能做到的
MartinYANG06 初学 2025-4-14 09:42:45
高阶的检索,我猜你的意思是更高效、快速、准确的,通过已有全面完善的数据中,将对应答案找到并整理完善。但是大模型肯定不止于此,因为所有问题不可能穷举,ai 训练有训练集和测试集,测试集相当于大模型没有见过的问题, 这些问题才是真正评估模型性能的关键, 所以在测试集面前不存在检索问题是不存在的。 其次,你可以通过图像模型,图像编辑,变脸,画风迁移,风格融合等 ai 模型的能力看到,这些肯定不是“高阶检索”能办到的事情,视觉图像大模型也是大模型的一种。 在我看来大模型是可以有一定创造能力,至于像人类一样的程度显然还达不到,但至少绝对不至于“高阶检索”能媲美的。 大模型类似实现的是一种数据背后潜在规律的学习和复现 例如现在 deepseek-r1 通过强化学习,使大模型能够学习和实现深度理解和推理能力, 这些都不是“高阶的检索”能够办到的事情。
murmur 小成 2025-4-14 09:48:47
你跟知乎水文、今日头条、微信公众号比,AI 的创造力是秒杀好不好
mumbler 小成 2025-4-14 09:49:29
@shendaowu #14 大模型的工作原理现在本来就不了解,包括发明 transformer 的前沿科学家在神经网络过于复杂以后都不知道如何推理出来的,只知道这样能工作,跟我们对大脑的了解差不多,人类也不知道自己的大脑是如何运作的。但宏观上来看,无论人脑还是大模型,创新都是原有东西的重新排列组合,大模型思考效率远高于人,排列组合比人更擅长
返回顶部