设为首页
收藏本站
开启辅助访问
全部
问与答
创意
技术
酷工作
生活
交易
资源
节点
飞墙
Follow
明白贴
报酬
登录
注册
飞社-令人惊奇的创意工作者社区-
›
首页
›
程序员
›
想自己本地跑大模型,学习大模型,做一些微调等操作,目 ...
FSHEX=FIND+SHARE+EXPRESS
飞社-令人惊奇的创意工作者社区- 是一个关于发现分享表达的地方
现在登录
没有账号?
立即注册
推荐主题
›
失业的程序员们都在干啥?
›
开网吧是不是个好生意
›
半夜扰民怎么办,已经严重影响休息了
›
最近对小米的产品比较排斥
›
同志们,技术问题来了,大家讨论下, jwt
今日热议主题
Android 版本+86 号码登录不上了怎么办?
求 langchain 发布 V1.0 后的最新测评
整合了一堆 AI 图片工具,免费送 credits,
如何开好 PS 体验店 ?
有一张 HEIC 的 mac 动态壁纸,怎么转换成
我给老美们做了个退税小工具
Windows 软件要求开发一个基于大模型的助手
远程 PHP 高级开发工程师(Laravel / Hyper
远程 react
出一台 iPhone 15 max/ pm9a1 256g 固态
显示全部
|
最新评论
36 条回复
·
4001 次点击
31#
dododada
初学
2025-9-5 08:42:32
大模型?你这个配置一般的推理没问题,但是大模型微调不行,再微调也是大模型,deepseek 满血配置 200W 起步,你这个只能跑量化
32#
wnpllrzodiac
初学
2025-9-5 08:52:54
没钱就别自己训练了。4090 最起码的,一张还不够
33#
totoro52
小成
2025-9-5 09:03:25
amd 跑模型? 很难评价
34#
aqqwiyth
小成
2025-9-5 09:11:11
不考虑一下每秒 token 吞吐量这个指标?
35#
misaki321
小成
2025-9-5 09:31:42
来张 4090 ,至少能跑非量化的 7b
36#
squarefong17
小成
2025-9-5 09:37:36
@charlenehe43 他说的那 CPU 跟 M4 pro 在一个性能水平,CPU 、GPU 和带宽都是。哪怕是功耗受限的笔记本跑 qwen-30b-a3b ,最高能有近 50 tokens/s 。跑这个规模的语言模型的场景,cuda 根本不是问题,vulkan 加速就够快了,瓶颈在带宽。
37#
goodryb
初学
2025-9-5 09:53:15
推理、微调、训练 所需要的资源你可以简单想象成 1:10:100 ,所以你要先清楚你准备做什么,如果只是刚开始想玩玩,建议可以先找 GPU 算力平台租卡来用,或者云厂商都有对应的服务先玩玩,玩的差不多了也就知道你要什么了 显卡首推 NVIDIA ,业界公认 NO.1
1
2
3
4
/ 4 页
返回顶部