设为首页
收藏本站
开启辅助访问
全部
问与答
创意
技术
酷工作
生活
交易
资源
节点
飞墙
Follow
明白贴
影视
报酬
登录
注册
飞社-令人惊奇的创意工作者社区-
›
首页
›
机器学习
›
模型部署的姿势
FSHEX=FIND+SHARE+EXPRESS
飞社-令人惊奇的创意工作者社区- 是一个关于发现分享表达的地方
现在登录
没有账号?
立即注册
推荐主题
›
openssh 协议貌似已经一统天下了。
›
为何见许多人抱怨上了多年学,最后只能去做
›
年轻人是先买房还是先买车
›
可以利用 wsl 绕过公司电脑监控吗?
›
互联网墙对你的生活和工作造成了多大的影响
今日热议主题
Fedora 41 两个 swap 分区,怎么办?
(VPS)全网首家测评--搬瓦工 power box
被门夹过的核桃还能补脑吗?听听 ChatGpt
过完年就是正宗的 30 岁了,现在学 PLC 有
市面上有支持 gymkit 的非商用健身器材吗?
[浏览器插件自荐] Bookmark Remainder and
分享一个用 vsc+deepseek 开发的小游戏
预售淘宝 88vip 会员权益, 2025.1.7 到期
Web3 前端共学,入门 web3 的好契机
3 年前在淘宝麦克先生买的 AC+,快过期了,
模型部署的姿势
anivie
·
3 天前
· 722 次点击
小白想问问现在的模型一般都是怎么部署的?直接用 python 的框架部署上去吗?还是导出给 c++部署?看到好像 onnx 部署的文章好像很稀少,大伙都是直接用 python 部署的吗?
举报
·
722 次点击
登录
注册
站外分享
微信扫一扫
QQ分享
微博分享
豆瓣分享
复制链接
显示全部
|
最新评论
6 条回复
沙发
Hans999632
初学
3 天前
我是用 vllms ,或者 ollama ,不过 ollama 慢,实在不行直接用本地模型
板凳
anivie
楼主
初学
3 天前
@Hans999632 本地模型?这不都是本地的吗
地板
qiniu2025
初学
3 天前
用 flashai.com.cn 下载整合包,win 或者 mac 无需任何安装配置,下载解压运行,开箱即用, 内置聊天+知识库+翻译应用
5#
anivie
楼主
初学
3 天前
@qiniu2025 我不是在问怎么用大模型,是在问怎么部署这些大模型 https://i.imgur.com/N9E3iZ2.png
6#
qiniu2025
初学
3 天前
@anivie 你要在哪里部署?PC 端还是服务器,并发不重要就无脑上 ollama
7#
neteroster
小成
3 天前
个人简单用用 llama.cpp 就行,要生产环境或者有高并发 / 高性能要求的推荐 sglang ,会比 vllm 快。
返回顶部