设为首页
收藏本站
开启辅助访问
全部
问与答
创意
技术
酷工作
生活
交易
节点
飞墙
Follow
明白贴
工算小助手
登录
注册
飞社-令人惊奇的创意工作者社区-
›
首页
›
问与答
›
跑 AI 模型,显卡的购买咨询
FSHEX=FIND+SHARE+EXPRESS
飞社-令人惊奇的创意工作者社区- 是一个关于发现分享表达的地方
现在登录
没有账号?
立即注册
推荐主题
›
大家现在还想润吗?
›
部门混进一个混子,我该如何避免被牵连
›
GLM-5 开源:从代码到工程, Agentic Engin
›
结婚了,之前给出去的份子钱怎么收?
›
读 [ 带孩子到底要几个人] 有感,如何正确
今日热议主题
蚁群算法模拟,在线体验
如何看待暗黑破坏神 2 的新 DLC-术士君临
Google AI Pro / Antigravity OAuth 登录报
请推荐小学生用的手表(有定位和电话就可以
前置过滤器和净水器有懂行的么
请问那些用 protobuf 的后端是怎么优雅处理
如何及时反击
🐴 年红包封面领取 | 新年不“抓马”,放自
Hackeradar — 基于 AI 的 Hacker News 内
《撤回的微信聊天亦成证供 沪企刘长江内幕
显示全部
|
最新评论
14 条回复
·
1616 次点击
11#
jeepc
小成
2025-3-21 17:15:52
先租,你买一个配置 4090 以下的显卡啥也跑不了
12#
tool2dx
初学
2025-3-21 17:24:50
@jeepc 16G 显存能跑量化模型,就是智商堪忧。
13#
gam2046
小成
2025-3-21 17:26:47
>> 显卡可以跑 github 上大部分项目 这几乎不可能,就是 5090 也做不到。因此你得先了解,你想玩的模型,再来决定配置。 游戏卡能跑的模型,其实不多,当然如果你说能跑一些参数阉割的模型也算,那确实可以满足“大部分能跑”,毕竟就连各种 GPTs 都有 1.5B 的模型,8G 显存都能跑。 >> 听说,显存越大,越好 基本是正确的,相对来说频率、带宽没那么重要,显存不够直接跑不起来。频率、带宽低,只是慢,愿意多等一会还是能有结果的。但显存炸了就是没结果。
14#
harlen
初学
2025-3-21 18:44:13
直接用 API 吧,本地多卡平台噪音太大,出问题调试也是成本
15#
blueorange
小成
2025-3-21 18:44:59
显存要大 3090
1
2
/ 2 页
浏览过的版块
业界八卦
SSD
二手交易
返回顶部