618 期间电脑配置推荐

lgqfhwy2 · 4 天前 · 1858 次点击

主要考虑生产力 & 性价比。想玩一下大模型相关的代码程序,麻烦大家看看配置有没有问题

配置 型号 价格
Cpu U7 265k 0
主板 技嘉 z890m 小雕 + U7 265k 套装 3838
显卡 RTX 5070 Ti O16G 7189
内存 海盗船复仇者 ddr5 64G (32 * 2) 1279
固态硬盘 致钛 TiPlus 7100 2TB 949
机械硬盘 西数 HA340 企业级 8 TB 24 年 1 月出厂 1099
电源 长城 ATX3.1 N10 1000W 金牌全模 799
散热 酷冷至尊 T824 风冷八热管旗舰风冷 587.02
机箱 先马黑洞 PRO + 3 智能温控无光风扇 299
总价 16039.02
举报· 1858 次点击
登录 注册 站外分享
17 条回复  
xtreme1 小成 4 天前
16g 显存玩不了啥 llm, ddr5 的速度惨绝人寰
lgqfhwy2 楼主 初学 4 天前
@xtreme1 显卡方面:想着小模型量化后可以推理一下吧,就挑了一个显存大又相对便宜一点的。 内存方面:我是小白,你说 ddr5 速度慢的话,还有更快的 ddr6 的吗,没有搜到呢
Memoriae 小成 4 天前
16G 显存恐怕只够跑 5-13B 小参数量模型,然而 Qwen 32B 才能有比较完善的推理和总结能力,16G 显存也许只够使用 AI 笔记、知识库、文章润色等 RAG 情境,大模型应该是没办法愉快玩耍的,还要考虑到 token 的输出速度。
lgqfhwy2 楼主 初学 4 天前
@Memoriae 32B 能运行的显卡都要好几万了吧,有点顶不住呢。就只能搞个小模型量化玩一下
zbw0414 初学 4 天前
@lgqfhwy2 考虑性价比的话就别在意跑大模型的能力了. 只玩应用的话用 API 足够用了, 自己跑模型质量就不说了, 电费估计不比调 API 便宜.
lgqfhwy2 楼主 初学 4 天前
@zbw0414 是的,也有道理,还了解一下大模型推理的技术 vllm ,算子优化这种的,是不是随便一个便宜一点的显卡就行。打算换成 4070ti 12G 显存 了,看着价格 4909 左右,能便宜两千多。
Biem 初学 4 天前
指个路,显卡可以看看淘宝上的 22G 显存魔改版,便宜量大管饱
lanxxkk 小成 4 天前
@Biem 这种 22G 显存魔改版的有没有啥风险?
zuotun 初学 4 天前
显卡是纯跑模型,不打算拿来打游戏的吗?那上特斯拉更有性价比,七千块刚好能买五张 T10 ,总共 80G 显存( 但是考虑到驱动问题需要搭配一个非 nVidia 的亮机卡。 虽然更推荐 2080Ti 22G 就是了,A100 大降价但是明显超出你预算了。最有性价比的当然是 API 了,本地跑的电费都比这个贵。
12下一页
返回顶部