设为首页
收藏本站
开启辅助访问
全部
问与答
创意
技术
酷工作
生活
交易
资源
节点
飞墙
Follow
明白贴
影视
报酬
登录
注册
飞社-令人惊奇的创意工作者社区-
›
首页
›
机器学习
›
模型部署的姿势
FSHEX=FIND+SHARE+EXPRESS
飞社-令人惊奇的创意工作者社区- 是一个关于发现分享表达的地方
现在登录
没有账号?
立即注册
推荐主题
›
只愿意用微信支付的原因
›
易口腔溃疡体质救星——冰硼散
›
尽管到处裁员,程序员仍是人类历史上最好的
›
听到年后裁员的风声 想举手🙋♂️了
›
婚姻生活总是一地鸡毛吗
今日热议主题
为什么 Apple Music 到现在还没有外文歌词
手机挂了梯子,微信图片、视频加载不出来,
钉钉的 云打印改付费 ,有什么代替品
Win10 RVC-realtime 在后台运行效率很差
iPad 终端三选一, Blink、Prompt 或 Termi
出售 iPhone16Pro 白色 港版 256GB
新能源暴雷
差点社死, zlibrary 某个旧网站被另作他用
找一位 JS 全栈开发人员,地点:成都
各位化债人,这是牛走了吗?
模型部署的姿势
anivie
·
5 天前
· 726 次点击
小白想问问现在的模型一般都是怎么部署的?直接用 python 的框架部署上去吗?还是导出给 c++部署?看到好像 onnx 部署的文章好像很稀少,大伙都是直接用 python 部署的吗?
举报
·
726 次点击
登录
注册
站外分享
微信扫一扫
QQ分享
微博分享
豆瓣分享
复制链接
显示全部
|
最早评论
6 条回复
7#
neteroster
小成
5 天前
个人简单用用 llama.cpp 就行,要生产环境或者有高并发 / 高性能要求的推荐 sglang ,会比 vllm 快。
6#
qiniu2025
初学
5 天前
@anivie 你要在哪里部署?PC 端还是服务器,并发不重要就无脑上 ollama
5#
anivie
楼主
初学
5 天前
@qiniu2025 我不是在问怎么用大模型,是在问怎么部署这些大模型 https://i.imgur.com/N9E3iZ2.png
地板
qiniu2025
初学
5 天前
用 flashai.com.cn 下载整合包,win 或者 mac 无需任何安装配置,下载解压运行,开箱即用, 内置聊天+知识库+翻译应用
板凳
anivie
楼主
初学
5 天前
@Hans999632 本地模型?这不都是本地的吗
沙发
Hans999632
初学
5 天前
我是用 vllms ,或者 ollama ,不过 ollama 慢,实在不行直接用本地模型
返回顶部