41 条回复  ·  4326 次点击
coderluan 初学 昨天 12:49
确实快的有点夸张,有些场合确实有用,感谢楼主,新年祝大家也都这么快🐶
catazshadow 小成 昨天 13:48
@rmrf 这条路的尽头是 cerebras 那样的晶圆级芯片 https://www.cerebras.ai/blog/openai-codexspark 这么大的东西能跑每秒 1000token ,比这个小的要么比它傻要么比它慢
CodFrm 小成 昨天 13:48
「别管对不对,就说快不快吧」 https://i.imgur.com/KCpx14q.png
77158158 初学 昨天 14:26
瞎回复的。只管快,不管对。
CuteGirl 初学 昨天 15:44
除了快 其他都不行 回答要么无法回答 要么就是不知所云 - -!
B4a1n 小成 昨天 15:45
@catazshadow #11 确实,我用 Cline 插件配合 cerebras 的 GLM 跑一个老项目的新系统兼容构建编译,写好提示后它能以极快的速度疯狂的编写测试用例跟反复自己解决 BUG ,直到满足我的需求为止,硬生生跑了半个小时用极快的测试样例跟不停的自动修改 BUG 给我编译成可运行的版本了,完全是用速度跟大 token 换出来的
i386 该用户已被删除 昨天 15:46
提示: 作者被禁止或删除 内容自动屏蔽
xing7673 小成 昨天 15:48
节点换到 [推广] 请
Tink 初学 昨天 16:41
不行,精度太差了 https://i.imgur.com/ZGfSvfY.png
Gilfoyle26 小成 昨天 16:54
1351253123*31388993624+12312424/35123512314234=354362455345523454 先别管对不对,你就说快不快吧! https://i.imgur.com/io2SM1h.png
返回顶部