我跑了一个 llama2 ,速度好慢啊
curl -X POST http://localhost:11434/api/generate -d '{
"model": "llama2",
"prompt":"Why is the sky blue?"
}'
用官方的指令,竟然花了 1 分多钟,才回答完……
大家的 mac mini 跑的都是什么本地模型?
举报· 107 次点击
登录 注册 站外分享
快来抢沙发
0 条回复  
返回顶部