20 条回复  ·  2298 次点击
snowkylin 楼主 初学 2025-1-31 16:42:11
@vpsvps 我没试过直接用 ollama 下载,不太确定,以及这个是 unsloth ai 出的动态量化版本,目前我只看到 huggingface 上有
erek 小成 2025-1-31 17:27:46
抱歉,一块 显卡都没有 T T
uncat 小成 2025-1-31 22:40:56
> 我的服务器有 8 块 4090 ,内存 640G ,能跑得动 671b 404GB 这个吗? 可以跑得动,跟你类似的配置,8 * 4090 + 512G 内存。Ollama 671B Q4 ,回答问题,短的 10s ,长的 20 - 30s 的样子。体验较差。 实际显存+内存总共:180 - 200G 。 ollama 现在会因为显存分配策略问题导致无法启动,需要 dump 出 Modefile 后手动添加 parameter num_gpu 为显卡数量 * 2
uncat 小成 2025-1-31 22:41:14
@vpsvps
vpsvps 小成 2025-1-31 22:49:32
@uncat 谢谢回复,是直接 ollama run deepseek-r1:671b 这个就行吗?这个简单些。huginnface 上的版本还得合并,比较麻烦,您说的是指用 unsloth/DeepSeek-R1-GGUF 这个模型文件吗
uncat 小成 2025-1-31 22:55:56
> 是直接 ollama run deepseek-r1:671b 这个就行吗? 先 ollama pull deepseek-r1:671b 拉下来后,保存 modefile 到本地,添加 num_gpu 参数后再重新导入即可。 参考这个: https://github.com/ollama/ollama/issues/6950#issuecomment-2373663650 @vpsvps
uncat 小成 2025-1-31 23:00:29
1. ollama pull deepseek-r1:671b 2. ollama show --modelfile deepseek-r1:671b | sed -e 's/^FROM.*/FROM deepseek-r1:671b/' > Modelfile 3. echo "PARAMETER num_gpu 0" >> Modelfile 4. ollama create deepseek-r1:671b-custom 第 3 步,将 0 替换为 2 (假设你是 24G 显存的显卡,实际显存除以 9 取整数商)
vpsvps 小成 2025-1-31 23:09:27
@uncat 谢谢 我试试
TUCANA 小成 2025-2-1 00:11:33
这个介绍适合发小红书🤣
snowkylin 楼主 初学 2025-2-1 02:29:19
@googlefans 详细流程在开头的链接 https://snowkylin.github.io/blogs/a-note-on-deepseek-r1.html
返回顶部