设为首页
收藏本站
开启辅助访问
全部
问与答
创意
技术
酷工作
生活
交易
节点
飞墙
Follow
明白贴
工算小助手
登录
注册
飞社-令人惊奇的创意工作者社区-
›
首页
›
程序员
›
想自己本地跑大模型,学习大模型,做一些微调等操作,目 ...
FSHEX=FIND+SHARE+EXPRESS
飞社-令人惊奇的创意工作者社区- 是一个关于发现分享表达的地方
现在登录
没有账号?
立即注册
推荐主题
›
油车好不好开,真的相差很大么?
›
政府的很多工作可以被 AI 取代
›
你们做的我不满意,我不开心,年终奖全扣掉
›
进口爱他美终究还是翻车了
›
如何应对父母,不生儿子就是不孝?
今日热议主题
本来排查问题查的很烦, 点开随机推送之后发
想做个网络爬虫,能推荐下便宜好用的 proxy
第一次去女朋友家,见父母要注意什么?
windows 如何禁止某些软件耍流氓, 比如夸克
98 年女生逃离程序员:不想加班,我如何选
又过了一年,辛苦了。
彦祖们用 AI 写代码,是把前后端放在一起,
如何升级宽带最划算(联通)
收,收,收个网易云(88VIP)
收 两瓶 乙巳蛇茅
显示全部
|
最新评论
36 条回复
·
4023 次点击
11#
perfectlife
小成
2025-9-4 22:09:27
学习大模型还是上英伟达吧
12#
hefish
小成
2025-9-4 22:12:22
本地还是得 nvidia 吧。。。。不然兼容性折腾死你。 不说别的 vllm 没有非 nvidia 的二进制版本,你得自己编译。。
13#
clemente
小成
2025-9-4 22:17:34
省点功夫吧 连买什么卡都搞不清楚
14#
objectgiga
初学
2025-9-4 22:19:27
该用 api 用 api,想要本地跑不要买这种电子垃圾,带宽太低了,一万块去看看 7532+8*64+3080 20G,能保证本地运行现行大部分 MOE 模型的 int4,微调个人基本上别想这茬
15#
hmbb
楼主
初学
2025-9-4 22:30:24
@TimePPT 可以尝试一下
16#
hmbb
楼主
初学
2025-9-4 22:30:49
@skye 我再看看
17#
hmbb
楼主
初学
2025-9-4 22:32:06
@clemente 最近才开始了解大模型这些知识
18#
hmbb
楼主
初学
2025-9-4 22:33:39
@objectgiga 我看看
19#
shuimugan
小成
2025-9-4 22:40:26
这配置比调用 api 体验更差,没有学习的价值,除非你要跑 Huihui-GLM-4.5-Air-abliterated 写黄文
20#
402124773
限制会员
2025-9-4 22:47:47
@hmbb 按理说,你自组小主机应该比你买成品小主机要便宜一点的
下一页 »
1
2
3
4
/ 4 页
下一页
浏览过的版块
问与答
分享创造
返回顶部