跑不太大的模型, 比如 Llama 3.1 8B

https://huggingface.co/lmstudio-community/Meta-Llama-3.1-8B-Instruct-GGUF/blob/main/Meta-Llama-3.1-8B-Instruct-Q8_0.gguf

这个模型 16G 内存的丐版也能跑起来。

举报· 173 次点击
登录 注册 站外分享
13 条回复  
tanranran 初学 2024-11-8 22:09:27
https://i.imgur.com/RjNcQ2L.png
dilidilid 小成 2024-11-8 22:03:51
真的没啥意思,我一直不能理解本地跑大模型推断的意义所在
yinmin 小成 2024-11-8 21:57:43
13:20 m4max 跑大模型的评测 https://youtu.be/2jEdpCMD5E8
shinecurve 小成 2024-11-8 21:41:56
原本计划买 M4 Max + 128G 跑 ollama 的,后来从 llama 70b 的能力、算力成本和实际应用场景考虑我最终放弃了,感觉还需在在等两年,我认为目前最好的选择还是 ChatGPT 。 希望对你能有些帮助。
piero66 小成 2024-11-8 21:31:51
8b 太蠢了
Gotchaaa 小成 2024-11-8 21:24:55
我 M1 pro 都能跑
slayer 小成 2024-11-8 21:15:58
@berchtesgaden #1 这个不错,现在 mac 应该在 lm studio 下跑了转换的 mlx 模型,貌似 ollama 还不支持 mlx 格式的。
lrigi 小成 2024-11-8 21:11:42
@234ygg llama3.2 弱智?你太逗了,跟不上时代了已经
Tubbs 小成 2024-11-8 21:01:20
@234ygg 并不是这样的,体验一下 qwen2.5 32b 的量化模型,本地可以跑,评测水平和 gpt-4o-mini 差不多水准了,日常用起来感觉也是不错的
234ygg 小成 2024-11-8 20:59:09
本地跑的全是弱智模型。。做个翻译都嫌蠢 第三方 gpt api 还不够便宜?
12下一页
返回顶部