设为首页
收藏本站
开启辅助访问
全部
问与答
创意
技术
酷工作
生活
交易
资源
节点
飞墙
Follow
明白贴
影视
报酬
登录
注册
飞社-令人惊奇的创意工作者社区-
›
首页
›
机器学习
›
模型部署的姿势
FSHEX=FIND+SHARE+EXPRESS
飞社-令人惊奇的创意工作者社区- 是一个关于发现分享表达的地方
现在登录
没有账号?
立即注册
推荐主题
›
为国买房者,应该得到感激
›
有人做到一边得到上级认可(努力、上进),
›
女朋友说以后怀孕了 要去 15w 一个月的月子
›
从面别人,到找不到工作,年底了没脸回家了
›
被裁了,但开心不起来
今日热议主题
macOS 大家现在用啥浏览器呢?
请教一个车辆全损赔付问题
[免费无水印] 告别只能使用 ios 制作备忘录
分享一个目前发现低价且支持高并发的 ChatG
IINA 使用问题请教
请教关于一号多拨后的下载/上传速度异常
支持 webdav 的网盘才是好网盘
请问 Github Copilot 的 web search 需要怎
[实习] [Tesla] [上海]信息娱乐系统前端软
小米 13 pro 如何 root?
模型部署的姿势
anivie
·
7 天前
· 732 次点击
小白想问问现在的模型一般都是怎么部署的?直接用 python 的框架部署上去吗?还是导出给 c++部署?看到好像 onnx 部署的文章好像很稀少,大伙都是直接用 python 部署的吗?
举报
·
732 次点击
登录
注册
站外分享
微信扫一扫
QQ分享
微博分享
豆瓣分享
复制链接
显示全部
|
最新评论
6 条回复
沙发
Hans999632
初学
7 天前
我是用 vllms ,或者 ollama ,不过 ollama 慢,实在不行直接用本地模型
板凳
anivie
楼主
初学
7 天前
@Hans999632 本地模型?这不都是本地的吗
地板
qiniu2025
初学
7 天前
用 flashai.com.cn 下载整合包,win 或者 mac 无需任何安装配置,下载解压运行,开箱即用, 内置聊天+知识库+翻译应用
5#
anivie
楼主
初学
7 天前
@qiniu2025 我不是在问怎么用大模型,是在问怎么部署这些大模型 https://i.imgur.com/N9E3iZ2.png
6#
qiniu2025
初学
7 天前
@anivie 你要在哪里部署?PC 端还是服务器,并发不重要就无脑上 ollama
7#
neteroster
小成
7 天前
个人简单用用 llama.cpp 就行,要生产环境或者有高并发 / 高性能要求的推荐 sglang ,会比 vllm 快。
返回顶部