RT
举报· 1960 次点击
登录 注册 站外分享
18 条回复  
nullboy 小成 前天 17:11
今天 API 崩了
YooboH 初学 前天 17:05
@LanhuaMa 如果你不懂就没必要胡说的..蒸馏和偷窃好像并没有什么关系。首先似乎并没有实锤证据表明 deepseek 蒸馏了 chatgpt ,虽然确实是有这种可能,但这种怀疑同样可以用于很多其他 LLM 。 况且蒸馏也不是什么大不了的事啊,你难道是觉得蒸馏是用什么神奇的方法把 gpt 的能力"偷"了过来吗?这只是一种形象化的说法而已,在我看来不过是学术界特有的造词行为...学界蒸馏的模型多的是,甚至模型蒸馏本来就算是一个研究方向。deepseek 在模型的工程训练上还是有独到之处的,更何况他还是开源权重,收到很多赞扬也不稀奇。至于有没有推动炒作那就不是我能知道的事了
18k 初学 前天 16:33
最近真的热搜不断,炒太多了,此刻的热搜更是魔幻,创始人回家过年… 不过原来是幻方量化的创始人…天才少年,量化收割散户起家,战略布局购亿元芯片,再造 AI 比肩海外!然后年前一天不忘初心,再割散户开启科技内循环…
frankilla 小成 前天 16:10
@LanhuaMa #10 润站特色。
RuriSmzk 小成 前天 15:19
@Liftman 是的,看那个思考过程都想捶他两拳。如此深沉
zaizaizai2333 小成 前天 15:15
社区劣化很明显啊,到现在都没人说 R1 最重要的贡献是用大规模 RL 训练推理能力。 社区大了以后,直接的结果就是蠢蛋先发声。
Liftman 小成 前天 15:06
@18k R1 可以理解为。在极其有限的成本下,跑出了较为优秀的效果。但是从性价比上来说,最优秀的模型的训练成本比他高了 N 倍,并没有多出 n 倍的领先优势。 我本地和官网都做了不少测试,和其他网上的测试者观点差不多一致。就是存在很大的波动性。因为目前他是靠高质量数据冷启动的,所以一旦触及到什么鬼知道的情况,就波动很大。。。 举个简单的例子,一个小学数学题。o1 mini 思考 1 秒,结束。deepseek 思考几分钟,反复质疑自己十五次。虽然答案是对的。但是可见其诡异的波动。。。。
guguexxx 小成 前天 14:56
@LanhuaMa #10 用脚投票就完事了,大善人见不得穷人是吧 https://i.imgur.com/Iy0taMy.png
LanhuaMa 小成 前天 13:19
@Leasing #9 国产不是原罪,偷窃是原罪。R1 就是 GPT 蒸馏出来的垃圾,表现再好也是垃圾。当然,你要是非要想把国产和偷窃挂钩也没问题
12下一页
返回顶部