如何列出所有PyTorch能用的GPU

作者:半吊子全栈工匠2024.02.16 06:16浏览量:6

简介:了解如何查看PyTorch支持的GPU数量和型号是进行深度学习开发和优化的基础。本文将详细介绍如何查看PyTorch支持的GPU列表。

要查看PyTorch支持的GPU列表,您可以使用以下代码:

首先,确保您已经安装了PyTorch。您可以通过在命令行中输入以下命令来检查PyTorch是否已安装:

  1. import torch
  2. print(torch.__version__)

如果PyTorch已安装,将显示PyTorch的版本号。

接下来,要查看PyTorch支持的GPU列表,您可以使用以下代码:

  1. import torch
  2. # 检查CUDA是否可用
  3. if torch.cuda.is_available():
  4. print('CUDA is available!')
  5. # 获取GPU数量
  6. num_gpus = torch.cuda.device_count()
  7. print(f'Number of GPUs available: {num_gpus}')
  8. # 获取每个GPU的型号和索引
  9. for i in range(num_gpus):
  10. gpu_name = torch.cuda.get_device_name(i)
  11. gpu_index = i + 1
  12. print(f'GPU {gpu_index}: {gpu_name}')
  13. else:
  14. print('CUDA is not available. Please make sure you have a CUDA-capable GPU and the correct driver and CUDA toolkit installed.')

这段代码将检查CUDA是否可用,并输出可用的GPU数量和型号。如果CUDA不可用,将显示相应的错误消息

请注意,要使用GPU进行训练,您需要确保安装了正确版本的CUDA工具包,并且您的系统与GPU兼容。在某些情况下,您可能还需要更新您的GPU驱动程序。