设为首页
收藏本站
开启辅助访问
全部
问与答
创意
技术
酷工作
生活
交易
节点
飞墙
Follow
明白贴
工算小助手
登录
注册
飞社-令人惊奇的创意工作者社区-
›
首页
›
程序员
›
nvlink 能让多个显卡的显存叠加起来用吗? ...
FSHEX=FIND+SHARE+EXPRESS
飞社-令人惊奇的创意工作者社区- 是一个关于发现分享表达的地方
现在登录
没有账号?
立即注册
推荐主题
›
油车好不好开,真的相差很大么?
›
政府的很多工作可以被 AI 取代
›
98 年女生逃离程序员:不想加班,我如何选
›
进口爱他美终究还是翻车了
›
如何评价“你们任总知道华为云的业务这么辣
今日热议主题
苹果的卡夫卡式噩梦的 app 的审核变得更慢
对 6 位数字 PIN 进行慢哈希是不是形式主义
有时候真的好羡慕那些网红啊,高考 700 分
什么是“中产”?标准是什么?
阿里云真的是让人无语......
Tp-link BE 7200 无线路由器 SLAAC+RDNSS
年前的最后一波更新,提前祝大家新年快乐。
运营商的公网 IP 百年不变吗...
2026-02-10 GitHub 崩了
Github 崩掉了
显示全部
|
最新评论
11 条回复
·
1283 次点击
11#
rogerer
初学
2025-6-3 10:45:48
有很多种方式来并行。最简单的,你如果有 256 个 batch 要训练/推理,那就分成若干份,比如 4 个 64 个样本,这样就能一次推理得到 256 个样本的结果。但是如果模型参数足够大,以至于一张卡装不下,那就得在其他层面进行并行。
12#
paopjian
小成
2025-6-3 10:54:22
不同模型使用方法不一样吧,nvlink 用于加强卡间通信的, 比如这张卡算完的中间结果给下张卡继续计算, 这张卡处理下一个数据,或者训练完一个 batch 后互相更新本地参数. 并行计算也分多种方式, nvlink 是为了极致运算效率的, pcie 能用就先 pcie 吧
1
2
/ 2 页
返回顶部