主要考虑 wsl 这种方式会不会有什么性能损失呢?
举报· 362 次点击
登录 注册 站外分享
22 条回复  
ysc3839 小成 2024-9-28 16:14:49
我选择再装个 Arch Linux 。个人不太接受 WSL2 ,因为 Hyper-V 虚拟化感觉上会影响主系统性能。
tubowen 小成 2024-9-28 15:33:31
wsl 不好用,之前想在 wsl 上面用 docker 呢,还不如 VMware 虚拟机里面跑 docker ,坑很多
fox0001 小成 2024-9-28 13:47:06
如果内存或硬盘占用比较大,建议用实体机装 Linux 来跑。试过 WSL 跑模型,超出 WSL 的硬盘容量限制,导致 WSL 里的系统崩了,只能重装。还好有备份……
Nosub 小成 2024-9-28 12:42:39
@qping 可以试试虚拟机,跑一个玩玩,几乎没有任何硬件要求,当然速度慢;

使用 Ollama 和 AnythingLLM 搭建本地 LLM 和知识库
https://nosub.net/posts/p/219
qping 小成 2024-9-28 11:25:29
纯 windows 就不能跑大模型吗,没折腾过,想了解下
beginor 小成 2024-9-28 11:00:18
测试/开发用 wsl 应该没什么问题,生产环境建议直接上 Linux 。
among 小成 2024-9-28 09:28:45
wsl 的 nvidia-smi 可以看到。但是 docker 中使用的时候,发现无法占用显存。
最后还是放弃了。
hez2010 小成 2024-9-28 06:12:58
用 WSL 没啥问题,我上个月刚刚用 wsl finetune 了 llama ,全程丝滑。
huluhulu 小成 2024-9-27 23:13:58
windows+wsl 很舒服,和 windows 共用显卡,windows 玩游戏的同时后面跑模型,互不耽误。
需要新环境的时候直接复制一个配置好的 wsl 镜像,很方便,每个环境真正做到互不影响。
jackmod 小成 2024-9-27 22:11:52
https://i.imgur.com/AqSb84e.png
个人用户直接走 docker desktop 就能用。
商业用户……每月 5 刀的专业版好像就合法。
123下一页
返回顶部