0


pytorch使用过程中指定显卡训练

1 指定单块显卡进行训练

1.1 默认的0号显卡

    若使用“0”号显卡进行训练,可以直接在代码中写
device = torch.device('cuda:0' if torch.cuda.is_available() else 'cpu' )

1.2 使用其他显卡,例如1号或其他

    若直接将1.1中的cuda:0改为cuda:1,则加载模型和数据还是通过0号显卡,如果0号卡被占满,那么将导致报“cuda out of memory”的问题。

    如果需要所有过程都通过1号显卡,那么可以直接用os指定。代码如下
import os 
os.environ['CUDA_VISIBLE_DEVICES'] = '1'

device = torch.device('cuda' if torch.cuda.is_available() else 'cpu' )

# 接下来的代码可能是
# net.to(device)
# 为了把模型和数据都转移到这个device中,由于限定了可见cuda为1,故能指定只使用1号卡进行训练

本文转载自: https://blog.csdn.net/zhingzt/article/details/126919136
版权归原作者 zhingzt 所有, 如有侵权,请联系我们删除。

“pytorch使用过程中指定显卡训练”的评论:

还没有评论