设为首页
收藏本站
开启辅助访问
全部
问与答
创意
技术
酷工作
生活
交易
资源
节点
飞墙
Follow
明白贴
影视
报酬
登录
注册
飞社-令人惊奇的创意工作者社区-
›
首页
›
问与答
›
4060 本地部署 LLM 求推荐?
FSHEX=FIND+SHARE+EXPRESS
飞社-令人惊奇的创意工作者社区- 是一个关于发现分享表达的地方
现在登录
没有账号?
立即注册
推荐主题
›
社保缴纳基数引发的讨论,表示理解不了
›
车牌摇到号了,无奈手头不宽裕,纠结是买二
›
想问问大家的鼠标侧键都设置成啥功能了?
›
去马来西亚做计算机靠谱吗?
›
最终还是对开发者下手了🤣
今日热议主题
[请教][BLE]HRV 的 RR 数据转换
杭州,想找一些小伙伴一起 citywork,户外
IDEA tab 后,后面的代码丢失
AWS 的收费项防不胜防
我的需求应该选择什么样的小主机, N100、
有用 uniapp 最新出的 uni-app x 开发过应
天杀的 msOffice 最便宜版卖 550 一年? 40
现在的游戏本 不插电源 能满血运行吗
给课程起一个直击用户痛点的名字
深圳 - crypto 大厂 - 风控系统和 AI 应用
4060 本地部署 LLM 求推荐?
KIRAYOMATO
· 2024-9-20 17:10:52 · 40 次点击
不训练,就用来自己推理玩玩,4060 能跑的起来的模型哪个效果最好?
举报
·
40 次点击
登录
注册
站外分享
微信扫一扫
QQ分享
微博分享
豆瓣分享
复制链接
显示全部
|
最新评论
2 条回复
沙发
dyexlzc
小成
2024-9-20 18:23:39
2060s 跑 llama3.1 ,qwen2 7b 都是 20+ token/s ,你的 4060 应该速度更快,13B 以下的都可以玩玩(显存够就可以)
显存不够用内存跑也可以。
板凳
Nosub
小成
2024-9-20 19:15:13
虚拟机搭建本地 LLM ,各种 LLM 可以随便换,真的可以随便折腾,不会污染操作系统,做个虚拟机快照就可以了,对显卡无要求,可以先练习下,熟悉流程后,可以在真机上跑。
使用 Ollama 和 AnythingLLM 搭建 AI 和本地知识库
https://nosub.net/posts/p/219
返回顶部