在WSL2-Ubuntu中安装CUDA12.8、cuDNN、Anaconda、Pytorch并验证安装 ...

打印 上一主题 下一主题

主题 1757|帖子 1757|积分 5271

#记录工作
提示:整个过程最好先开启体系代理,也可以用镜像源,确保有官方发布的最新特性和官方库的完整和兼容性支持。
 期间下载会特殊慢,必要在体系上先开启代理,然后WSL设置里打开网络模式“Mirrored”,以设置WSL自动使用主机上的代理网络。
   【WLS2怎么设置网络自动代理 - CSDN App】https://blog.csdn.net/u014451778/article/details/146073726?sharetype=blog&shareId=146073726&sharerefer=APP&sharesource=u014451778&sharefrom=link
   
一、起首要先确保——windows体系中要精确安装了以下组件:

(一)显卡驱动;

   下载 NVIDIA 官方驱动 | NVIDIA
  (二)Microsoft Visual Studio;

   下载 Visual Studio Tools - 免费安装 Windows、Mac、Linux
  (三)CUDA;

   CUDA Toolkit 12.8 Downloads | NVIDIA Developer
  (四)cuDNN;

   CUDA Toolkit 12.8 Downloads | NVIDIA Developer
  (五)精确安装WSL2-Ubuntu版本

要正常安装WSL2-Ubuntu版本,安装成功后打开ubuntu界面输出如下界面:
   安装 WSL | Microsoft Learn
  


该版本默认是安装的WSL2-Ubuntu 24.04版本 ,也可以选择其他的ubuntu版本举行安装。
 
 
二、在WSL2-Ubuntu体系中安装CUDA、cuDNN、Anaconda

在windows体系中精确安装完必要组件后,然后才是在WSL2-Ubuntu中按照顺序安装 CUDA、cuDNN、Anaconda。
打开WSL2-Ubuntu,先安装CUDA、再安装cuDNN、末了是Anaconda(管理假造环境)
只要windows体系配置好了显卡驱动,在WSL2中一样平常不必再另外安装linux驱动了。
在安装前可以在WSL2-Ubuntu中使用以下下令举行验证与显卡的通讯和驱动调用的情况:
  1. nvidia-smi
复制代码

 
(一)安装CUDA

打开CUDA官方网址<发起“deb(network)”方式较为省事>,完整复制全部下令粘贴进WSL2-Ubuntu终端中按回车键运行。
   CUDA Toolkit 12.8 Downloads | NVIDIA Developer
  选项如图所示:
固然,也可以选WSL-Ubuntu这个选项更把稳。

  1. wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2404/x86_64/cuda-keyring_1.1-1_all.deb
  2. sudo dpkg -i cuda-keyring_1.1-1_all.deb
  3. sudo apt-get update
  4. sudo apt-get -y install cuda-toolkit-12-8
复制代码
 
1、复制图片/官网下边的全部下令,粘贴到WSL2-Ubuntu终端窗口中,按ENTER键(回车键)运行 


2、过程中会要求输入密码,输入ubuntu密码即可。


3、执行下令后会自动举行下载和安装: 



 
4、安装竣事后举行环境变量的编辑:

 a)我们可以按照下面的步调来永久添加环境变量:

检查安装是否成功在配置环境变量之前,先确认 CUDA 是否精确安装。运行以下下令:ls /usr/local/cuda-12.8/bin/
在 WSL2-Ubuntu 体系中,CUDA 12.8 通常安装在/usr/local/cuda-12.8目录下,这个目录包含了 CUDA 相关的各种组件,如 bin(包含可执行文件,比如 nvcc 编译器就在这里面)、lib64(包含库文件)、include(包含头文件) 等。如果在安装过程中没有指定其他特殊路径,这就是默认的安装位置。我们可以通过以下下令来验证:
  1. ls /usr/local/cuda-12.8
复制代码
  如果安装成功,我们会看到nvcc等工具的列表。如果没有看到这些文件,大概必要重新检查安装步调。

从我执行 ls /usr/local/cuda-12.8 后的输出结果来看,CUDA 12.8 似乎已经成功安装到了 /usr/local/cuda-12.8 目录下。
接下来,我们必要将 /usr/local/cuda-12.8/bin 目录添加到体系的 PATH 环境变量中,以便体系能够找到 nvcc 等下令。

b) 配置环境变量环境变量的配置必要根据你的体系类型(Bash 或 Zsh)来操作。
 确认当前使用的 Shell
起首,确认你当前使用的 Shell 是 Bash 照旧 Zsh。
我们可以通过以下下令检察:
  1. echo $SHELL
复制代码
• 如果输出是   /bin/bash  ,则使用 Bash。
• 如果输出是   /bin/zsh  ,则使用 Zsh。

c)编辑环境变量配置文件
 
以下是常见的配置方法:
对于 Bash 用户
编辑   ~/.bashrc   文件,
  1. nano ~/.bashrc
复制代码
添加以下内容: 
  1. export PATH=/usr/local/cuda-12.8/bin:$PATH
  2. export LD_LIBRARY_PATH=/usr/local/cuda-12.8/lib64:$LD_LIBRARY_PATH
复制代码
• 按下   Ctrl + X  ,然后按   Y   确认保存,末了按   Enter   完成退出。 
保存文件后,运行以下下令使变量生效:
  1. source ~/.bashrc
复制代码
对于 Zsh 用户
编辑   ~/.zshrc   文件,
  1. nano ~/.bashrc
复制代码
添加雷同的内容 : 
  1. export PATH=/usr/local/cuda-12.8/bin:$PATH
  2. export LD_LIBRARY_PATH=/usr/local/cuda-12.8/lib64:$LD_LIBRARY_PATH
复制代码
保存文件后,运行以下下令使变量生效(选其一):
  1. source ~/.bashrc   # 如果是 Bash 用户
  2. source ~/.zshrc    # 如果是 Zsh 用户
复制代码
 5. 验证环境变量

配置完成后,运行以下下令验证:
  1. echo $PATH
复制代码
 6. 测试   nvcc  

运行   nvcc -V  或nvcc --version
,检查输出是否精确。
  1. nvcc -V
复制代码
或者: 
  1. nvcc --version
复制代码
 
如果配置精确,你会看到类似以下的输出:
 
  1. love@AI:~$ ls /usr/local/cuda-12.8DOCS      README  compute-sanitizer  extras  include  libnvvp           nvml  share  targets  version.jsonEULA.txt  bin     doc                gds     lib64    nsightee_plugins  nvvm  src    toolslove@AI:~$ echo $SHELL/bin/bashlove@AI:~$ nano ~/.bashrc
  2. love@AI:~$ source ~/.bashrclove@AI:~$ nvcc -Vnvcc: NVIDIA (R) Cuda compiler driverCopyright (c) 2005-2025 NVIDIA CorporationBuilt on Wed_Jan_15_19:20:09_PST_2025Cuda compilation tools, release 12.8, V12.8.61Build cuda_12.8.r12.8/compiler.35404655_0love@AI:~$
复制代码
 

至此,CUDA算是安装成功并得到验证。
 
7.驱动步伐安装步伐(发起)


在官方CUDA安装下令下方,有以下下令选项,强烈发起在验证完CUDA安装精确后,再次运行以下下令(任选其一)以确保安装步伐的未来兼容性。
NVIDIA 驱动步伐说明(选择一个选项)
 要安装 open kernel module 风格:
  1. sudo apt-get install -y nvidia-open
复制代码
要安装旧版内核模块风格:
  1. sudo apt-get install -y cuda-drivers
复制代码

 NVIDIA 驱动步伐提供了两种内核模块风格:open kernel module(开源内核模块)和旧版内核模块(proprietary kernel module,专有内核模块)。这两种风格的告急区别在于它们的允许证类型、支持的功能和兼容性。

open kernel module 风格
• 允许证:开源,通常采用 MIT/GPLv2 允许证。
• 支持的 GPU 架构:支持 Turing 及以后的 GPU 架构。
• 支持的功能:支持大多数 Linux GPU 驱动步伐的功能,包罗 CUDA、Vulkan、OpenGL、OptiX 和 X11。此外,尚有一些功能是仅 open kernel modules 支持的,比方 NVIDIA Confidential Computing、Magnum IO GPUDirect Storage(GDS)、Heterogeneous Memory Management(HMM)、CPU affinity for GPU fault handlers 和 DMABUF support for CUDA allocations。
• 兼容性:大概不支持所有旧版专有内核模块支持的特性,比方 NVIDIA virtual GPU(vGPU)、G-Sync on notebooks 和 Preserving video memory across power management events。

 
旧版内核模块风格
• 允许证:专有,由 NVIDIA 提供。
• 支持的 GPU 架构:支持 Maxwell、Pascal、Volta、Turing 和之后的 GPU 架构。
• 支持的功能:支持所有 NVIDIA GPU 驱动步伐的功能,包罗那些大概在 open kernel modules 中尚未支持的特性。
• 兼容性:通常更稳固,特殊是在支持较旧的硬件和特定的企业级应用场景中。

新手用户保举
对于新手用户,保举安装open kernel module 风格的驱动步伐,原因如下:
• 开源:更透明,社区支持更广泛。
• 更新:通常包含最新的功能和改进。
• 兼容性:对于大多数现代应用和游戏来说,open kernel modules 提供的兼容性已经足够。
然而,如果你有特定的需求,比如必要使用专有驱动步伐中特有的功能,或者你的硬件较旧,大概必要旧版内核模块风格。
在安装驱动步伐之前,发起先阅读 NVIDIA 的官方文档,相识不同风格的具体区别和保举使用场景。此外,确保我们的体系满足安装要求,并按照官方指南举行操作,以制止潜伏的兼容性问题。
 
 
 
(二)安装cuDNN

打开CUDA官方网址<发起“deb(network)”方式较为省事>,完整复制全部下令粘贴进WSL2-Ubuntu终端中按回车键运行。
   cuDNN 9.8.0 Downloads | NVIDIA Developer
   选项如图所示:

  1. wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2404/x86_64/cuda-keyring_1.1-1_all.deb
  2. sudo dpkg -i cuda-keyring_1.1-1_all.deb
  3. sudo apt-get update
  4. sudo apt-get -y install cudnn
复制代码
 
1、复制图片/官网下边的全部下令,粘贴到WSL2-Ubuntu终端窗口中,按ENTER键运行


2、执行下令后会自动举行下载和安装:


 

3、暂时性地验证 cuDNN 安装

此时,暂时性地验证 cuDNN 安装是否成功可以通过以下方法:
检查文件路径的方法
cuDNN 的库文件通常会被安装到`/usr/lib/x86_64-linux-gnu`或`/usr/local/cuda/lib64`目录下。你可以通过以下下令检查这些文件是否存在:
  1. ls /usr/lib/x86_64-linux-gnu/libcudnn*
复制代码
 输出应该如下所示:
  1. love@AI:~$ ls /usr/lib/x86_64-linux-gnu/libcudnn*
  2. /usr/lib/x86_64-linux-gnu/libcudnn.so
  3. /usr/lib/x86_64-linux-gnu/libcudnn.so.9
  4. /usr/lib/x86_64-linux-gnu/libcudnn.so.9.8.0
  5. /usr/lib/x86_64-linux-gnu/libcudnn_adv.so
  6. /usr/lib/x86_64-linux-gnu/libcudnn_adv.so.9
  7. /usr/lib/x86_64-linux-gnu/libcudnn_adv.so.9.8.0
  8. /usr/lib/x86_64-linux-gnu/libcudnn_adv_static.a
  9. /usr/lib/x86_64-linux-gnu/libcudnn_adv_static_v9.a
  10. /usr/lib/x86_64-linux-gnu/libcudnn_cnn.so
  11. /usr/lib/x86_64-linux-gnu/libcudnn_cnn.so.9
  12. /usr/lib/x86_64-linux-gnu/libcudnn_cnn.so.9.8.0
  13. /usr/lib/x86_64-linux-gnu/libcudnn_cnn_static.a
  14. /usr/lib/x86_64-linux-gnu/libcudnn_cnn_static_v9.a
  15. /usr/lib/x86_64-linux-gnu/libcudnn_engines_precompiled.so
  16. /usr/lib/x86_64-linux-gnu/libcudnn_engines_precompiled.so.9
  17. /usr/lib/x86_64-linux-gnu/libcudnn_engines_precompiled.so.9.8.0
  18. /usr/lib/x86_64-linux-gnu/libcudnn_engines_precompiled_static.a
  19. /usr/lib/x86_64-linux-gnu/libcudnn_engines_precompiled_static_v9.a
  20. /usr/lib/x86_64-linux-gnu/libcudnn_engines_runtime_compiled.so
  21. /usr/lib/x86_64-linux-gnu/libcudnn_engines_runtime_compiled.so.9
  22. /usr/lib/x86_64-linux-gnu/libcudnn_engines_runtime_compiled.so.9.8.0
  23. /usr/lib/x86_64-linux-gnu/libcudnn_engines_runtime_compiled_static.a
  24. /usr/lib/x86_64-linux-gnu/libcudnn_engines_runtime_compiled_static_v9.a
  25. /usr/lib/x86_64-linux-gnu/libcudnn_graph.so
  26. /usr/lib/x86_64-linux-gnu/libcudnn_graph.so.9
  27. /usr/lib/x86_64-linux-gnu/libcudnn_graph.so.9.8.0
  28. /usr/lib/x86_64-linux-gnu/libcudnn_graph_static.a
  29. /usr/lib/x86_64-linux-gnu/libcudnn_graph_static_v9.a
  30. /usr/lib/x86_64-linux-gnu/libcudnn_heuristic.so
  31. /usr/lib/x86_64-linux-gnu/libcudnn_heuristic.so.9
  32. /usr/lib/x86_64-linux-gnu/libcudnn_heuristic.so.9.8.0
  33. /usr/lib/x86_64-linux-gnu/libcudnn_heuristic_static.a
  34. /usr/lib/x86_64-linux-gnu/libcudnn_heuristic_static_v9.a
  35. /usr/lib/x86_64-linux-gnu/libcudnn_ops.so
  36. /usr/lib/x86_64-linux-gnu/libcudnn_ops.so.9
  37. /usr/lib/x86_64-linux-gnu/libcudnn_ops.so.9.8.0
  38. /usr/lib/x86_64-linux-gnu/libcudnn_ops_static.a
  39. /usr/lib/x86_64-linux-gnu/libcudnn_ops_static_v9.a
复制代码
从我的提供的输出结果来看,cuDNN 库文件已经成功安装在`/usr/lib/x86_64-linux-gnu`目录下,而不是`/usr/local/cuda/lib64`。这说明 cuDNN 的安装路径是精确的,并且体系已经精确配置了相关的库文件。

以下是验证结果解释:
• cuDNN 库文件存在:
• 我已经找到了多个 cuDNN 的动态链接库(如`libcudnn.so`、`libcudnn.so.9`、`libcudnn.so.9.8.0`)和静态库(如`libcudnn_adv_static.a`、`libcudnn_cnn_static_v9.a`等)。
• 这些文件的存在表明 cuDNN 已精确安装。

• CUDA 目录下没有 cuDNN 文件:
• `/usr/local/cuda/lib64`目录下没有找到 cuDNN 文件,这是由于 cuDNN 的安装路径是`/usr/lib/x86_64-linux-gnu`,而不是`/usr/local/cuda`。
• 这是正常的,由于 cuDNN 的安装路径通常由体系包管理器(如`apt`)决定,而不是手动安装到 CUDA 的目录下。
小结:从我的输出结果来看,cuDNN 已精确安装在   /usr/lib/x86_64-linux-gnu   目录下。
 
接下来我们将通过安装Anaconda之后,在与体系隔离的假造环境中安装Pytorch来完全地验证CUDA和cuDNN的安装是否精确。

 
(三)安装Anaconda

通过查询,截止2025年03月06日,最新版本Anaconda完整文件名为:Anaconda3-2024.10-1-Linux-x86_64.sh
1、通过以下下令下载和安装:

复制下令粘贴到WSL2-Ubuntu终端窗口中,按ENTER键运行
  1. wget -P /tmp https://repo.anaconda.com/archive/Anaconda3-2024.10-1-Linux-x86_64.sh # 下载anaconda安装包至 /tmp 目录下
  2. bash /tmp/Anaconda3-2024.10-1-Linux-x86_64.sh # 安装anaconda
复制代码

2、执行下令后会自动举行下载完成后会进入安装步调: 

此时要点击ENTER键后不停按着不松开,来翻页阅读安装前协议

 继续按着ENTER键不松手,直到出现输入框才停止

不停按到出现输入框,按多了也没关系,不输入就不能继续
 用键盘手动输入“yes”,之后按ENTER回车键确认输入。然后进入到下边这个界面:
这会会询问安装位置,默认不修改则继续按一次ENTER键确认使用默认安装路径:

之后安装会询问:是否要集成到shell当中,自动进入默认假造环境? 

发起输入“yes”
 

此时安装完成。
发起关闭终端,然后重新打开,看看是否自动进入默认的conda的base假造环境了: 
 可以看到重新打开WSL2-Ubuntu终端后已自动激活base默认的Anaconda假造环境了。
 

3、验证Anaconda的安装

验证 Conda 安装是否成功可以通过以下几种方法。这些方法可以帮助你确认 Conda 是否精确安装,并且能够正常运行。

方法 1:检查 Conda 版本
运行以下下令来检查 Conda 的版本号。如果 Conda 安装成功,它会表现当前的版本信息:
  1. conda --version
复制代码

如果输出类似以下内容,则说明 Conda 安装成功:

 

如果没有输出,或者提示`conda: command not found`,则说明 Conda 没有精确安装,或者其路径没有被添加到体系的环境变量中。

方法 2:检查 Conda 环境
运行以下下令来检察当前的 Conda 环境列表:
  1. conda env list
复制代码

如果 Conda 安装成功,你会看到类似以下的输出,列出所有已创建的 Conda 环境:


 
方法 3:创建并激活新的 Conda 环境
你可以创建一个新的 Conda 环境并激活它,以验证 Conda 的功能是否正常:

• 创建新的环境:
  1. conda create -n testenv python=3.9
复制代码
 
• 激活环境:
  1. conda activate testenv
复制代码
 
• 检查当前环境:
  1. conda info --envs
复制代码

如果输出表现当前激活的环境是`testenv`,则说明 Conda 正常工作:

# conda environments:
#
base                     /home/love/miniconda3
testenv               *  /home/love/miniconda3/envs/testenv
```
方法 4:安装并验证 Python 包
在激活的 Conda 环境中,安装一个常用的 Python 包(如`numpy`),并验证其是否正常工作:

• 安装包:
  1.  conda install numpy
复制代码
 
• 验证安装:
  1.  python -c "import numpy; print(numpy.__version__)"
复制代码

如果输出表现了`numpy`的版本号(比方`1.23.4`),则说明 Conda 和 Python 环境正常工作。

方法 5:检查 Conda 配置
运行以下下令来检查 Conda 的配置信息:
  1. conda config --show
复制代码
 

这将表现 Conda 的配置文件路径、默认环境路径、通道(channels)等信息。如果输出正常,说明 Conda 的配置文件没有问题。

方法 6:检查 Conda 的初始化
如果你在安装 Conda 后没有运行初始化下令,大概会导致`conda`下令无法正常使用。运行以下下令来初始化 Conda:
  1. conda init
复制代码

然后重新打开终端窗口,再次运行`conda --version`来验证。
  1. conda --version
复制代码

小结
通过以上方法,你可以全面验证 Conda 是否精确安装并正常工作。如果在验证过程中遇到问题,请检查以下内容:
• 确保 Conda 的安装路径已添加到体系的环境变量中。
• 确保 Conda 初始化完成。
• 如果仍然有问题,可以尝试重新安装 Conda。
 
 
三、安装Pytorch并验证CUDA12.8、cuDNN、Anaconda、Pytorch的安装

(一)安装Pytorch


我们就用默认的base环境来安装torch举行验证WSL2-Ubuntu的整个深度学习环境的搭建是否成功

如今CUDA12.8版本还不支持conda下令安装,以后torch官方会更新出conda包,我们就先用官方给的pip下令安装Preview (Nightly)版:
 
  1. pip3 install --pre torch torchvision torchaudio --index-url https://download.pytorch.org/whl/nightly/cu128
复制代码

 过一会后安装完成:

 接下来我们将用这个告急的深度学习库来验证之前的所有安装。
 
(二)用Pytorch并验证CUDA12.8、cuDNN、Anaconda、Pytorch的安装
先关闭WSL2-Ubuntu终端后,重新打开WSL2-Ubuntu终端;
在WSL2-Ubuntu终端内输入“python”并回车调起python:
  1. python
复制代码
 

复制以下整段代理粘贴后按ENTER回车键支持验证:
  1. import torch  # 导入 PyTorch 库
  2. print("PyTorch 版本:", torch.__version__)  # 打印 PyTorch 的版本号
  3. # 检查 CUDA 是否可用,并设置设备("cuda:0" 或 "cpu")
  4. device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
  5. print("设备:", device)  # 打印当前使用的设备
  6. print("CUDA 可用:", torch.cuda.is_available())  # 打印 CUDA 是否可用
  7. print("cuDNN 已启用:", torch.backends.cudnn.enabled)  # 打印 cuDNN 是否已启用
  8. # 打印 PyTorch 支持的 CUDA 和 cuDNN 版本
  9. print("支持的 CUDA 版本:", torch.version.cuda)
  10. print("cuDNN 版本:", torch.backends.cudnn.version())
  11. # 创建两个随机张量(默认在 CPU 上)
  12. x = torch.rand(5, 3)
  13. y = torch.rand(5, 3)
  14. # 将张量移动到指定设备(CPU 或 GPU)
  15. x = x.to(device)
  16. y = y.to(device)
  17. # 对张量进行逐元素相加
  18. z = x + y
  19. # 打印结果
  20. print("张量 z 的值:")
  21. print(z)  # 输出张量 z 的内容
复制代码
 如果输出如下,则表明CUDA12.8、cuDNN、Anaconda、Pytorch全部安装成功!

从上边的输出来看,你已经成功地在 Python 中导入了 PyTorch,并且确认了 CUDA 和 cuDNN 的可用性。你的代码运行正常,并且 PyTorch 正在使用 GPU(`cuda:0`)举行计算。以下是对代码和输出的总结:
  1. (base) love@AI:~$ python
  2. Python 3.12.7 | packaged by Anaconda, Inc. | (main, Oct  4 2024, 13:27:36) [GCC 11.2.0] on linux
  3. Type "help", "copyright", "credits" or "license" for more information.
  4. >>> import torch  # 导入 PyTorch 库
  5. "PyTorch 版本:", torch.__version__)  # 打印 PyTorch 的版本号
  6. # 检查 CUDA 是否可用,并设置设备("cuda:0" 或 "cpu")
  7. device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
  8. print("设备:", device)  # 打印当前使用的设备
  9. print("CUDA 可用:", torch.cuda.is_available())  # 打印 CUDA 是否可用
  10. print("cuDNN 已启用:", torch.backends.cudnn.enabled)  # 打印 cuDNN 是否已启用
  11. # 打印 PyTorch 支持的 CUDA 和 cuDNN 版本
  12. print("支持的 CUDA 版本:", torch.version.cuda)
  13. print("cuDNN 版本:", torch.backends.cudnn.version())
  14. # 创建两个随机张量(默认在 CPU 上)
  15. x = torch.rand(5, 3)
  16. y = torch.rand(5, 3)
  17. # 将张量移动到指定设备(CPU 或 GPU)
  18. x = x.to(device)
  19. y = y.to(device)
  20. # 对张量进行逐元素相加
  21. z = x + y
  22. # 打印结果
  23. print("张量 z 的值:")
  24. print(z)  # 输出张量 z 的内容>>>
  25. >>> print("PyTorch 版本:", torch.__version__)  # 打印 PyTorch 的版本号
  26. PyTorch 版本: 2.7.0.dev20250306+cu128
  27. >>>
  28. >>> # 检查 CUDA 是否可用,并设置设备("cuda:0" 或 "cpu")
  29. >>> device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
  30. >>> print("设备:", device)  # 打印当前使用的设备
  31. 设备: cuda:0
  32. >>> print("CUDA 可用:", torch.cuda.is_available())  # 打印 CUDA 是否可用
  33. CUDA 可用: True
  34. >>> print("cuDNN 已启用:", torch.backends.cudnn.enabled)  # 打印 cuDNN 是否已启用
  35. cuDNN 已启用: True
  36. >>>
  37. >>> # 打印 PyTorch 支持的 CUDA 和 cuDNN 版本
  38. >>> print("支持的 CUDA 版本:", torch.version.cuda)
  39. 支持的 CUDA 版本: 12.8
  40. >>> print("cuDNN 版本:", torch.backends.cudnn.version())
  41. cuDNN 版本: 90701
  42. >>>
  43. >>> # 创建两个随机张量(默认在 CPU 上)
  44. >>> x = torch.rand(5, 3)
  45. >>> y = torch.rand(5, 3)
  46. >>>
  47. >>> # 将张量移动到指定设备(CPU 或 GPU)
  48. >>> x = x.to(device)
  49. >>> y = y.to(device)
  50. >>>
  51. >>> # 对张量进行逐元素相加
  52. >>> z = x + y
  53. >>>
  54. >>> # 打印结果
  55. >>> print("张量 z 的值:")
  56. 张量 z 的值:
  57. >>> print(z)  # 输出张量 z 的内容
  58. tensor([[0.8231, 0.9657, 1.3131],
  59.         [0.8789, 1.4404, 0.8304],
  60.         [0.8528, 1.3328, 1.9110],
  61.         [1.0722, 0.6289, 1.4093],
  62.         [1.1559, 0.8878, 0.5438]], device='cuda:0')
  63. >>>
复制代码

---
代码运行结果:
PyTorch 版本: 2.7.0.dev20250306+cu128
装备: cuda:0
CUDA 可用: True
cuDNN 已启用: True
支持的 CUDA 版本: 12.8
cuDNN 版本: 90701
---
关键信息:
• PyTorch 版本:`2.7.0.dev20250306+cu128`
• 这是一个开发版本(`dev`),并且是针对 CUDA 12.8 的版本。

• 装备:`cuda:0`
• 表示 PyTorch 已成功检测到 GPU,并将使用第一个 GPU 装备。

• CUDA 和 cuDNN:
• CUDA 可用:`True`,表示体系支持 CUDA,PyTorch 可以利用 GPU 加速。
• cuDNN 已启用:`True`,表示 cuDNN 已启用,这有助于进一步加速深度学习任务。
• 支持的 CUDA 版本:`12.8`,表示 PyTorch 支持 CUDA 12.8。
• cuDNN 版本:`90701`(即 cuDNN 9.7.1)。

---
如果我们遇到任何问题(比方 CUDA 不可用),请确保:
• 检查 GPU 驱动和 CUDA 安装:
• GPU 驱动是最新的。
• 安装了精确版本的 CUDA 和 cuDNN。
• PyTorch 版本与 CUDA 版本兼容。

---
   【Windows 11 中摆设 Linux 项目 - CSDN App】https://blog.csdn.net/u014451778/article/details/144777265?sharetype=blog&shareId=144777265&sharerefer=APP&sharesource=u014451778&sharefrom=link
  
至此,在Windosw体系上的WSL2-Ubuntu深度学习环境配置完成,可以在Windosw体系上优雅地借助Windosw的易用性和Linux体系的高效性举行项目摆设和开发调试了。
 
 
 
 
 
 

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

南飓风

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表