跑不太大的模型, 比如 Llama 3.1 8B

https://huggingface.co/lmstudio-community/Meta-Llama-3.1-8B-Instruct-GGUF/blob/main/Meta-Llama-3.1-8B-Instruct-Q8_0.gguf

这个模型 16G 内存的丐版也能跑起来。

举报· 174 次点击
登录 注册 站外分享
13 条回复  
berchtesgaden 小成 2024-11-8 20:34:39
https://www.bilibili.com/video/BV1PdDSYjEEW
234ygg 小成 2024-11-8 20:59:09
本地跑的全是弱智模型。。做个翻译都嫌蠢 第三方 gpt api 还不够便宜?
Tubbs 小成 2024-11-8 21:01:20
@234ygg 并不是这样的,体验一下 qwen2.5 32b 的量化模型,本地可以跑,评测水平和 gpt-4o-mini 差不多水准了,日常用起来感觉也是不错的
lrigi 小成 2024-11-8 21:11:42
@234ygg llama3.2 弱智?你太逗了,跟不上时代了已经
slayer 小成 2024-11-8 21:15:58
@berchtesgaden #1 这个不错,现在 mac 应该在 lm studio 下跑了转换的 mlx 模型,貌似 ollama 还不支持 mlx 格式的。
Gotchaaa 小成 2024-11-8 21:24:55
我 M1 pro 都能跑
piero66 小成 2024-11-8 21:31:51
8b 太蠢了
shinecurve 小成 2024-11-8 21:41:56
原本计划买 M4 Max + 128G 跑 ollama 的,后来从 llama 70b 的能力、算力成本和实际应用场景考虑我最终放弃了,感觉还需在在等两年,我认为目前最好的选择还是 ChatGPT 。 希望对你能有些帮助。
yinmin 小成 2024-11-8 21:57:43
13:20 m4max 跑大模型的评测 https://youtu.be/2jEdpCMD5E8
12下一页
返回顶部