设为首页
收藏本站
开启辅助访问
全部
问与答
创意
技术
酷工作
生活
交易
资源
节点
飞墙
Follow
明白贴
影视
报酬
登录
注册
飞社-令人惊奇的创意工作者社区-
›
首页
›
机器学习
›
模型部署的姿势
FSHEX=FIND+SHARE+EXPRESS
飞社-令人惊奇的创意工作者社区- 是一个关于发现分享表达的地方
现在登录
没有账号?
立即注册
推荐主题
›
做个纳粹的手势和在南京穿和服哪个更严重?
›
上海 7 年后端求捞,有老哥可以内推下吗
›
不去折腾都不知道云游戏现在多先进了
›
今年的火车票是真的难买
›
大佬们,一人出一道前端面试题,年后准备跳
今日热议主题
来分享下你 2024 最喜欢、最爱循环的歌吧
大佬们,一人来一道 Java 面试题,准备年后
有内置行车记录仪了你们还会买过吗?
大家有电动车推荐吗,坐标深圳,准备买个电
新房装修,研究了几天网络拓扑,发现自己用
MacOS 15 推送了,各位 M1 的 Mac mini 更
大佬们,一人出一道 PHP 面试题,年后准备
2025 年了, PHP 和 wordpress 还有必要学
在上海过年,一家子可以安排哪些有趣的活动
Duplicati 上传被当作 PCDN 被封了
模型部署的姿势
anivie
· 2025-1-1 18:07:19 · 737 次点击
小白想问问现在的模型一般都是怎么部署的?直接用 python 的框架部署上去吗?还是导出给 c++部署?看到好像 onnx 部署的文章好像很稀少,大伙都是直接用 python 部署的吗?
举报
·
737 次点击
登录
注册
站外分享
微信扫一扫
QQ分享
微博分享
豆瓣分享
复制链接
显示全部
|
最新评论
6 条回复
沙发
Hans999632
初学
2025-1-1 21:54:29
我是用 vllms ,或者 ollama ,不过 ollama 慢,实在不行直接用本地模型
板凳
anivie
楼主
初学
2025-1-1 21:56:39
@Hans999632 本地模型?这不都是本地的吗
地板
qiniu2025
初学
2025-1-1 22:10:21
用 flashai.com.cn 下载整合包,win 或者 mac 无需任何安装配置,下载解压运行,开箱即用, 内置聊天+知识库+翻译应用
5#
anivie
楼主
初学
2025-1-1 22:11:53
@qiniu2025 我不是在问怎么用大模型,是在问怎么部署这些大模型 https://i.imgur.com/N9E3iZ2.png
6#
qiniu2025
初学
2025-1-1 22:17:17
@anivie 你要在哪里部署?PC 端还是服务器,并发不重要就无脑上 ollama
7#
neteroster
小成
2025-1-1 22:19:08
个人简单用用 llama.cpp 就行,要生产环境或者有高并发 / 高性能要求的推荐 sglang ,会比 vllm 快。
浏览过的版块
Python
Google
返回顶部