175 条回复  ·  19781 次点击
catazshadow 楼主 小成 2025-5-15 13:52:23
@trungdieu031 集群的话,就会撞上功耗问题了。上面说了,一个 openAI 已经让美国电力短缺了,假设算力扩展是线性的(现实世界通常不是),要来几千个吗?
HENQIGUAI 初学 2025-5-15 13:55:41
5 年前能预判到 AI 发展到今天这种程度嘛,还预判起几十年来了.....
trungdieu031 初学 2025-5-15 13:56:33
@coefuqin 他那文章说的是,同样的 671B 的模型,用同样的数据训练,他们模型的能力范围是一样大的,比如数据集里没有法文的数据,那你后训练 RL 再怎么跑,也没法回答法文的问题。 那么为什么 COT 会对模型能力尤其是推理能力有提升呢,因为 COT 的训练其实是在强化思考过程,就像对数学里的加法运算一样,这里的 COT 其实就是加法,只不过作用在在不同的名词/实事上,使模型推理能力提升!
catazshadow 楼主 小成 2025-5-15 13:57:13
@HENQIGUAI 别忘了 AI 浪潮之前 7 、80 年代已经死过一次了
pkoukk 小成 2025-5-15 13:59:35
LLM 模拟的不是人脑,而是人类文明的逻辑学,语言学,符号学,这些东西可以不在人脑上运行
trungdieu031 初学 2025-5-15 14:00:25
@catazshadow 目前来说功耗确实是问题。但在实现 AGI 这个目标面前,功耗带来的成本增加会显得不值一提!
icyalala 小成 2025-5-15 14:01:21
@catazshadow “你要比应该在相同的基准上来比” 那我就再重复一遍: 并不是所有神经元的连接都是有作用的。神经元的数量也无法对应智能的水平。LLM 的参数也无法对应神经元的连接。
catazshadow 楼主 小成 2025-5-15 14:02:57
@icyalala 那你怎么证明这 6500000 亿个连接里,只有 600B 是有用的?或者只有 6000B 是有用的?或者到底哪些是有用的?
catazshadow 楼主 小成 2025-5-15 14:03:43
@icyalala 或者什么是你所说的“有用”的?
ddoyou 初学 2025-5-15 14:12:22
跑一下题:造物主因为硅基构建智能体太难了,所以才用碳基构建了智能体,先是构建了一些低端智能体,再迭代构建了人类。
返回顶部