27 条回复  ·  2916 次点击
crocoBaby 楼主 初学 2025-11-20 00:10:51
@usn 都不行,很鸡肋,只能学习到大概的部署和使用方法,想要获得从业技能不太科学
crocoBaby 楼主 初学 2025-11-20 00:12:18
@coolfan 大概能跑 30b 的吧加上量化优化,但是距离现在主流上的还差太远了
forisra 初学 2025-11-20 00:12:26
7B 参数量的大模型本地部署的话就是已读乱回,当然没啥效果。
crocoBaby 楼主 初学 2025-11-20 00:13:40
@slowgen 对,你形容的很贴切,就是这个感觉,感觉想要入门 ai 开发,门槛挺高的
crocoBaby 楼主 初学 2025-11-20 00:14:46
@forisra 哥们都是玩的多少 b 的?完全没有思路有什么使用场景
forisra 初学 2025-11-20 00:18:19
@crocoBaby 本地部署按照现在的显存价格就没啥好方案啊,司马黄仁勋之前还专门出了一个推理特化的产品,一看价格 5070 的算力 4 万块的售价.....
HojiOShi 初学 2025-11-20 00:20:57
@crocoBaby #9 看来你查阅资料的能力不怎么样,能觉得英伟达那个小盒子实用,还因此否定所有消费级显卡。
usn 初学 2025-11-20 00:25:56
@HojiOShi 好奇大佬是怎么搜集资料的
usn 初学 2025-11-20 00:26:16
@crocoBaby #10 看个人
bwnjnOEI 初学 2025-11-20 00:30:54
建议不要用 LM STUDIO 或 OLLAMA 这些玩意,最起码会用 llama.cpp (虽然这俩都是基于 llama.cpp ),生产级部署都是 vllm 和 sglang 或自己写 cuda 。上 huggingface 下个 gpt-oss-20b 能凑合用,qwen-coder-7b 能代码补全,还有 DeepSeek-OCR 啥的能玩的挺多的,甚至内存 64g+你都能跑 gpt-oss-120b 但可能只有几 tokens/s 。
返回顶部