27 条回复  ·  2971 次点击
coefu 初学 2025-9-10 12:17:56
@siriussilen 2017 年 transformer 出来之后,谁会预料到 gpt3.5 在 2023 年就起来了呢?当然了,snn 做 LLM ,因为可以摸着石头过河,所以比之 gpt1~gpt3 的原创突破性有所不足,但至少也填补了一条非 transformer 路线的空白,并且因为 snn 的低功耗和时序处理优势,可能会走出一条更好的路线。 transformer 的各种变种都已经是强弩之末了( LLM 的功能和性能的边际效应递减,导致代际提升放缓,gpt4~5 的提升并没有 1~3 激烈),你不想想为什么要找新路线?
coefu 初学 2025-9-10 12:28:16
前瞻性预测,如果第一作者李国齐,因为这个瞬悉获得国家进步科技奖,国家科技进步二等奖足矣,那么大概率后续会评院士。因为他目前已经是杰青了。截止 2025.9 ,snn 目前国内 team 本就不多,一部分做硬件,算法这块出成果的鲜有。所以也算是填补了空白,往往这种填补空白的工作收益很大。 插个 flag ,后续有新闻了,且看老夫的前瞻性眼光如何。
siriussilen 小成 2025-9-10 14:29:51
@coefu gpt3.5 出来和 sparse attention 没啥关系啊,我在和你就事论事,你在说新技术新路线新变革就算是 gpt6 出来了,也和 Sparse attention 一点关系都没有,二次方复杂度就带来二次方的效果,仅此而已。无数的实验都表明 Sparse attention 性能就是有损,拿 Sparse attention 当新变革我只能说你是一个半吊子
siriussilen 小成 2025-9-10 14:32:00
@coefu 这玩意就是骗经费用的,实用价值是 0 ,没错,就是 0
coefu 初学 2025-9-10 15:12:45
@siriussilen #22 我半吊子,你就是全吊子?就事论事搞人身攻击?我也是就事论事啊,脉冲神经网络和人工神经网络,底层构造就不同,你有真正了解过吗?开口闭口就这玩意儿。NLP 是不是就只能搞 transformer ?是不是只有 attention 机制绝对正确?这么狂,你几斤几两啊?放点你的学术成果也让我长长见识? 当然了,脉冲神经网络未来的发展,也不是你说实用价值是 0 就是 0 ,只能说你这个人,水平一般,口气很大。有你这种毫无远见的人,才能凸显别人的成就。 不用再回我,已经 block 你了。👎
siriussilen 小成 2025-9-10 16:33:34
@coefu 笑死😂 愿你永远活在愚昧中
siriussilen 小成 2025-9-10 16:36:15
@coefu 没有经过时间检验的就是 bullshit 指标刷上去再谈变革,ok👌?
testy 小成 2025-9-11 00:21:50
为什么用 cf 隧道?还是临时的
123
返回顶部