RT
举报· 77 次点击
登录 注册 站外分享
5 条回复  
zcf0508 小成 2024-8-7 16:14:58
这要看你的模型,和数据关系不大
tool2dx 初学 2024-8-7 16:20:55
1060 有 3G 版本的,显存太小了。

买 p104, 也就 100 元,现在和小伙伴吃一顿饭都不止一百。

/t/950118
Muniesa 小成 2024-8-7 18:22:11
不大,能不能跑看模型结构
jZEdn7k4 小成 2024-8-7 19:25:04
看起来像分割任务,GPU 能不能跑的下不看数据集大小,因为你也不是一整个数据集同时塞进去,是一个 batch 一个 batch 的塞,推理的时候一张一张的塞就行了,如果用 FCN 之类的简单的 3-4G 显存就够了
RYS 小成 2024-8-26 11:13:01
不管什么数据、什么模型,去 autodl.com 租一个 4090 ,总是最经济实惠的。
1 、不用你自己配置环境
2 、有最好的 4090 ,不用你自己花巨额买计算卡

除非你要做研究出成果,长期训练,否则偶尔用一用,租服务器最划算
返回顶部