设为首页
收藏本站
开启辅助访问
全部
问与答
创意
技术
酷工作
生活
交易
资源
节点
飞墙
Follow
明白贴
报酬
登录
注册
飞社-令人惊奇的创意工作者社区-
›
首页
›
程序员
›
nvlink 能让多个显卡的显存叠加起来用吗? ...
FSHEX=FIND+SHARE+EXPRESS
飞社-令人惊奇的创意工作者社区- 是一个关于发现分享表达的地方
现在登录
没有账号?
立即注册
推荐主题
›
我这周不想通勤回去了,但是心里又很内疚咋
›
115 历史跑路事迹整理
›
giffgaff 流量注册了两个 gmail,基本上是注
›
本以为国产安卓这几年发展替代苹果没啥大问
›
求点评一下装机配置
今日热议主题
年龄欺骗朋友,深度聊天聊错嘴了,咋整??
没看过阿凡达 2,可以直接看阿凡达 3 吗
做了一个简历自动优化的网站
好朋友之间有利益牵扯以后真的就变味了吗
通过中转 apikey 使用 cc 的/chrome 功能登
android 是否有可以语音添加待办事项的 app
探讨:动态未知环境下,基于单设备异构传感
硬核 | 智谱上市招股书深度解读
请教,什么 IDE 看内核代码比较好?能否满
微星魔龙 4060ti 显卡 省流 2000
显示全部
|
最新评论
11 条回复
·
1272 次点击
11#
rogerer
初学
2025-6-3 10:45:48
有很多种方式来并行。最简单的,你如果有 256 个 batch 要训练/推理,那就分成若干份,比如 4 个 64 个样本,这样就能一次推理得到 256 个样本的结果。但是如果模型参数足够大,以至于一张卡装不下,那就得在其他层面进行并行。
12#
paopjian
小成
2025-6-3 10:54:22
不同模型使用方法不一样吧,nvlink 用于加强卡间通信的, 比如这张卡算完的中间结果给下张卡继续计算, 这张卡处理下一个数据,或者训练完一个 batch 后互相更新本地参数. 并行计算也分多种方式, nvlink 是为了极致运算效率的, pcie 能用就先 pcie 吧
1
2
/ 2 页
浏览过的版块
问与答
Apple
返回顶部