import torch
def try_gpu(i=0):
"""如果存在返回gpu(i), 否则返回cpu()"""
if torch.cuda.device_count() >= i + 1:
return torch.device(f'cuda:{i}')
return torch.device('cpu')
def try_all_gpus():
"""返回该设备上的所有GPU数"""
devices = [
torch.device(f'cuda:{i}') for i in range(torch.cuda.device_count())]
return devices if devices else [torch.device('cpu')]
a = try_gpu()
b = try_gpu(1)
c = try_all_gpus()
print(a, b, c)
相关文章
- 12-28查看GPU计算能力
- 12-28conda 命令、CUDA版本查看、CUDA设备检测、CUDA设备带宽检测方法
- 12-28各厂家网络设备查看端口收发光功率-命令汇总
- 12-28GPU训练网络参数时查看GPU的使用情况
- 12-28查看GPU是否可用
- 12-28tf.Session()函数的参数应用(tensorflow中使用tf.ConfigProto()配置Session运行参数&&GPU设备指定)
- 12-28tensorflow中使用tf.ConfigProto()配置Session运行参数&&GPU设备指定
- 12-28查看GPU运行情况(nvidia-smi )和指定GUP训练/推理模型(CUDA_VISIBLE_DEVICES使用)
- 12-28Adreno 查看gpu cpu vsync bound
- 12-28通过adb查看设备树