PyTorch使用多GPU训练

发布时间:2024-12-22 16:33

使用PyTorch进行分布式深度学习训练 #生活技巧# #学习技巧# #深度学习技巧#

最新推荐文章于 2024-07-23 14:52:41 发布

caijh33 于 2019-04-18 19:16:47 发布

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

1. PyTorch使用指定GPU训练

model = Model() if torch.cuda.is_available(): model = model.cuda() 123

上面代码直接使用model.cuda(), PyTorch默认使用从0开始的GPU, 有如下两种方法来指定需要使用的GPU:

直接在终端中设定:CUDA_VISIBLE_DEVICES=1 python main.pypython代码中设定:

import os os.environ["CUDA_VISIBLE_DEVICES"] = "1" model = Model() if torch.cuda.is_available():model = model.cuda() #使用第一个GPU 12345 2. PyTorch使用指定GPU训练

device_ids = [3, 4, 6, 7] model = Module() if torch.cuda.is_available(): module = torch.nn.DataParallel(model, device_ids=device_ids) # 声明所有可用设备 model = model.cuda(device=device_ids[0]) # 模型放在主设备 images = images.cuda(device=device_ids[0]) # 训练数据放在主设备 labels = labels.cuda(device=device_ids[0]) 12345678

使用多GPU训练,model = nn.DataParallel(model)
注意训练/测试过程中 inputs和labels均需加载到GPU中

网址:PyTorch使用多GPU训练 https://www.yuejiaxmz.com/news/view/540140

相关内容

节省显存新思路,在 PyTorch 里使用 2 bit 激活压缩训练神经网络
pytorch中的model=model.to(device)使用说明
手写数字识别之多GPU训练
pytorch 1.1.0升级
PyTorch 深度学习框架简介:灵活、高效的 AI 开发工具
把显存用在刀刃上!17 种 pytorch 节约显存技巧
GPU加速深度学习
创建虚拟环境并,创建pytorch 1.3.1
pytorch模型训练流程中遇到的一些坑(持续更新)
IBM推出“深度学习即服务”:可大幅节省AI训练时间

随便看看