14 条回复  ·  1606 次点击
jeepc 小成 2025-3-21 17:15:52
先租,你买一个配置 4090 以下的显卡啥也跑不了
tool2dx 初学 2025-3-21 17:24:50
@jeepc 16G 显存能跑量化模型,就是智商堪忧。
gam2046 小成 2025-3-21 17:26:47
>> 显卡可以跑 github 上大部分项目 这几乎不可能,就是 5090 也做不到。因此你得先了解,你想玩的模型,再来决定配置。 游戏卡能跑的模型,其实不多,当然如果你说能跑一些参数阉割的模型也算,那确实可以满足“大部分能跑”,毕竟就连各种 GPTs 都有 1.5B 的模型,8G 显存都能跑。 >> 听说,显存越大,越好 基本是正确的,相对来说频率、带宽没那么重要,显存不够直接跑不起来。频率、带宽低,只是慢,愿意多等一会还是能有结果的。但显存炸了就是没结果。
harlen 初学 2025-3-21 18:44:13
直接用 API 吧,本地多卡平台噪音太大,出问题调试也是成本
blueorange 小成 2025-3-21 18:44:59
显存要大 3090
12
返回顶部