设为首页
收藏本站
开启辅助访问
全部
问与答
创意
技术
酷工作
生活
交易
资源
节点
飞墙
Follow
明白贴
报酬
登录
注册
飞社-令人惊奇的创意工作者社区-
›
首页
›
程序员
›
nvlink 能让多个显卡的显存叠加起来用吗? ...
FSHEX=FIND+SHARE+EXPRESS
飞社-令人惊奇的创意工作者社区- 是一个关于发现分享表达的地方
现在登录
没有账号?
立即注册
推荐主题
›
我这周不想通勤回去了,但是心里又很内疚咋
›
115 历史跑路事迹整理
›
中年的职场选择:走还是留?
›
一件小事,刷新我对集成显卡能力的认识
›
Cursor pro 用完 、Google Antigravity 免
今日热议主题
有哪些 GEO 内容优化服务商可以推荐?
[JS 小游戏][跑商][飞空艇][动态价格]我用
有什么 UA 信息提取手机型号数据库或者查询
一晚上整了个“原研药查询助手”App
分享个 GPT 会员镜像站 - 环球巴士(支持开
小米 15 换 oppo findx9
vget v0.11.0 支持哔哩哔哩下载
稳定高性价比 nano-banana-2/2K/4k、gemini
[优惠] 深圳低价转租一条 500M 宽带
上海 收拾家里,出点垃圾 耳机、净水机、小
显示全部
|
最新评论
11 条回复
·
1273 次点击
11#
rogerer
初学
2025-6-3 10:45:48
有很多种方式来并行。最简单的,你如果有 256 个 batch 要训练/推理,那就分成若干份,比如 4 个 64 个样本,这样就能一次推理得到 256 个样本的结果。但是如果模型参数足够大,以至于一张卡装不下,那就得在其他层面进行并行。
12#
paopjian
小成
2025-6-3 10:54:22
不同模型使用方法不一样吧,nvlink 用于加强卡间通信的, 比如这张卡算完的中间结果给下张卡继续计算, 这张卡处理下一个数据,或者训练完一个 batch 后互相更新本地参数. 并行计算也分多种方式, nvlink 是为了极致运算效率的, pcie 能用就先 pcie 吧
1
2
/ 2 页
浏览过的版块
问与答
分享发现
Apple
综艺
返回顶部