我在上一篇博客中分析了一些安装Tensorflow-gpu版本的各种问题与心得,大家可以参考Tensorflow-gpu安装问题与心得,最终得出了结论,将代码重构成Pytorch-gpu可以有效的解决环境配置的各种问题,Pytorch的安装非常简单,只需要命令行就可以实现,不需要手动安装cuda与cudnn包,可以真正的实现用conda创建隔离的虚拟环境,因此,我写了一期关于如何安装Pytorch-gpu版本的安装教程。

目录

0.安装前引言

(1)查看显卡支持

(2)查看显卡驱动最高支持版本

一.安装合适的Pytorch-gpu版本

二.实例安装torch2.6.0+cuda11.8+python3.10

三.验证GPU是非可用

0.安装前引言

        大家在开始安装Pytorch-gpu前,建议安装Anaconda与pycharm,具体的安装过程我会在后续的文章中做出教程,这一篇文章默认大家已经有了一些基础,只需要按照pytorch-gpu来调用显卡加速训练。

(1)查看显卡支持

        首先,打开设备管理器来查看自己的显卡是不是NVIDIA英伟达显卡,对于大部分用户来说应该都是满足的,如果不是那就使用cpu版本的pytorch。

 

(2)查看显卡驱动最高支持版本

        其次,查看电脑的显卡驱动版本,安装Windows系统时一般都会自动安装的,如果很低可以直接到NVIDIA官网下载更新一下。

        同时按住win+R打开命令窗口,输入cmd,在终端输入一下命令来查看显卡驱动版本。

nvidia-smi


        可以看到CUDA Version是12.0,说明我可以下载的CUDA版本要低于12.0即可,CUDA和CUDNN就是调用GPU需要用到的工具,安装Pytorch-gpu版本时直接用命令行就可以一起安装,无需手动安装。

一.安装合适的Pytorch-gpu版本

        不论是安装gpu版本还是cpu版本,都可以进入官网pytroch官网,下拉可以看到安装的需求与命令。

        这里一定要注意,这是最新版的pytroch,可以看到Pytroch Build有稳定版和先测版,稳定版是2.6.0且NOTE是需要至少3.9的python版本的,下面的分别对应着操作系统、编程语言、CUDA版本,如果只需要cpu版本只需要将Compute Platform换成CPU即可用命令行下载,大家根据自己的代码来选择版本,如果需要安装之前的pytorch版本,可以进入下面的Previous versions of PyTorch

        可以一直往下寻找自己适配的版本,不论是CUDA还是cpu版本都有对应的命令来直接下载(建议安装conda,直接创建虚拟环境来下载)。

        在下载前,如果是使用conda虚拟环境,需要先创建虚拟环境,那么要按照的pytorch与python版本对应就需要先确认一下(要先创建虚拟python环境,激活后在按照pytorch,当然直接在本机python环境安装也要对应一下python版本)。

        下表来自Pytorch在Github官方版本表,需要对应torch与python环境的兼容。

        在确认了需要安装的python版本与torch时,就可以创建虚拟环境了,大家可以参考我第一篇的文章conda创建虚拟环境,激活虚拟环境后,就可以在终端直接输入官方复制的命令来下载torch了。如果直接在本机环境安装torch直接在cmd中输入命令即可。

二.实例安装torch2.6.0+cuda11.8+python3.10

        在明白了整个的安装过程后,我们可以争对自己需要安装的torc版本来搭建环境了,我在这里举例了我的安装步骤,即torch2.6.0+cuda11.8+python3.10的环境。

        首先,查看对应表确保torch与python环境是兼容的,其次创建conda虚拟环境。

conda create -n t26 python==3.10

        激活环境后来安装torch。

pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118

        在些许等待后就安装完成了,输入以下命令来查看已安装的包。

conda list

        可以看到已经安装成功了,接下来需要测试GPU是否可用了。

三.验证GPU是非可用

        大家可以在pycharm中导入环境来验证,也可以在激活环境下输入python来直接输入代码来验证,这种方法都是一样的,这里建议用pycharm导入环境来验证(早晚要导入的,有问题了删除再次创建虚拟环境即可)。

import torch
import time
from torch import autograd
#GPU加速
print(torch.__version__)
print(torch.cuda.is_available())

a=torch.randn(10000,1000)
b=torch.randn(1000,10000)
print(a)
print(b)
t0=time.time()
c=torch.matmul(a,b)
t1=time.time()

print(a.device,t1-t0,c.norm(2))

device=torch.device('cuda')
print(device)
a=a.to(device)
b=b.to(device)

t0=time.time()
c=torch.matmul(a,b)
t2=time.time()
print(a.device,t2-t0,c.norm(2))


t0=time.time()
c=torch.matmul(a,b)
t2=time.time()

print(a.device,t2-t0,c.norm(2))

        运行以上的测试代码,可以返回torch版本与gpu是否可用,同时做了cpu与gpu运算时间的对比,我的测试结果如下。

        代码首先输出了torch版本与GPU可用的信息(True),然后对两个随机矩阵分别用cpu和gpu运算,输出了一次cpu运算时间和两次的gpu运算时间。

        至此,torch-gpu的安装已经全部完成,希望可以帮助到大家。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐