设为首页
收藏本站
开启辅助访问
全部
问与答
创意
技术
酷工作
生活
交易
资源
节点
飞墙
Follow
明白贴
报酬
登录
注册
飞社-令人惊奇的创意工作者社区-
›
首页
›
分享发现
›
总是有人从 AI 怎么工作反推大脑就是如何如何,人类就是 ...
FSHEX=FIND+SHARE+EXPRESS
飞社-令人惊奇的创意工作者社区- 是一个关于发现分享表达的地方
现在登录
没有账号?
立即注册
推荐主题
›
各位大佬,建议今年买房么
›
证券低佣开户万 0.854 免 5, 评论抽奖送五
›
作为中国公民,为币圈交易所工作,领取报酬
›
我们的服务宗旨是不退钱! RackNerd VPS 大
›
因为一张声卡,我无意体验到 thinkpad+arch
今日热议主题
12 收一个京东洗车, SUV
🍊[2025]第 5 年在 v 站卖橙子 关键词:#赣
出山姆副卡, 2025/12/7 开通
35R/个 收两个京东保洁,坐标成都
slack nebula 虚拟局域网 中继服务 共享 20
35R 出一个京东保洁,坐标深圳
88 网易云 45(今天开始)
gemini3pro 的上下文 100 万 token 长度的
突然多了个 shui 深火热?
想了解下大家都在哪里买的自费体检
显示全部
|
最新评论
175 条回复
·
19783 次点击
91#
coefuqin
初学
2025-5-15 13:29:08
@catazshadow yep ,摩尔定律到头了,无法切割原子。另外纵向立体堆叠也要考虑热量的问题。
92#
trungdieu031
初学
2025-5-15 13:29:09
@catazshadow CPU 的摩尔定律已经很慢了,GPU 的摩尔定律显然还没到头,看老黄每年新卡的计算能力就知道了。
93#
coefuqin
初学
2025-5-15 13:31:09
@NoOneNoBody 乐观估计几十年。
94#
icyalala
小成
2025-5-15 13:31:33
@catazshadow 并不是所有神经元的连接都是有作用的。神经元的数量也无法对应智能的水平。LLM 的参数也无法对应神经元的连接。 如果你非要类比,你来解释一下 LLM 参数量小于老鼠神经元连接时,LLM 表现的智能也要高过老鼠?
95#
coefuqin
初学
2025-5-15 13:32:16
@trungdieu031 别闹,但凡单卡能无敌上限,他会卖一体机?还搞光交换机拓展机柜?
96#
coefuqin
初学
2025-5-15 13:33:21
@icyalala 老鼠能感知危险,LLM 能吗?你对于智能的理解很片面。
97#
catazshadow
楼主
小成
2025-5-15 13:34:28
@trungdieu031 老黄吹的是 GPU 内的算力,他不会告诉你的是,从 DDR 读数据的带宽是有尽头的,一个周期只能读回来那么多数据,怎么在合理时间内读回来足够的数据,用来表示比现在的模型大 1000 倍的更大的模型? HBM ?集成几百颗显存吗?
98#
trungdieu031
初学
2025-5-15 13:35:03
@coefuqin 我建议你不要听风就是雨! 先仔细看看文章说的是啥再来辩经! 他这篇文章的结论是 RL 无法实现超越基础模型能力的推理。RL 只是激发能力做推理过程,文章讨论的模型能力的边界问题。举个例子,如果一个模型在预训练阶段没有在数学集上做过相应的训练,那么 RL 深度思考也是没法表现出来数学的形式计算能力。 开口之前先过过脑子!
99#
coefuqin
初学
2025-5-15 13:36:56
@trungdieu031 不是 GPU 的摩尔定律没到头,是他把芯片越做越大来提升的性能。因为 GPU 的独立性,他把现在电路板都做成芯片也行。
100#
easing
小成
2025-5-15 13:37:19
我部分认可你的标题,但完全不认同你的推理。
下一页 »
1 ...
6
7
8
9
10
11
12
13
14
... 18
/ 18 页
下一页
返回顶部