这是我的第391篇原创文章。
一、引言
错误:The detected CUDA version (12.0) mismatches the version that was used to compile PyTorch(11.8)。
先需要理清楚这几个关系:
- 显卡(电脑进行数模信号转换的设备,有的电脑可能是双显卡,一个是inter的集成显卡,一个是NVIDIA的独立显卡)。以windows系统为例,查看系统的显卡情况:
- 按下“Win + X”组合键,然后在弹出的菜单中选择“设备管理器”。在设备管理器窗口中,展开“显示适配器”选项。这里会列出电脑安装的所有显卡,包括集成显卡和独立显卡。如果只看到“Intel UHD Graphics”这一个设备,那么就是单显卡,且为集成显卡;如果同时看到“Intel UHD Graphics”和“Nvidia Geforce RTX4050”两个设备,那么就是双显卡,其中“Intel UHD Graphics”是集成显卡,“NVIDIA GeForce GTX 1660 Ti”是独立显卡。
注意:我的本机是Nvidia Geforce RTX4050-6G独显,OravlddDriver Device 是由“向日葵远程控制”软件而多出来的。可以卸载或删除。
- 右键点击显卡名称,选择“属性”,在弹出的属性窗口中,可以查看到显卡的详细信息,如硬件ID、驱动程序版本等。这些信息对于更新驱动程序或者排查显卡故障很有用。比如,通过驱动程序版本可以判断显卡驱动是否为最新版本,如果版本较旧,可能会导致显卡性能不能充分发挥或者出现兼容性问题。
- GPU(显卡上的一块芯片,双显卡就有两个GPU)。以windows系统为例,查看GPU的运行使用情况:
- 按下“Win + X”组合键,然后在弹出的菜单中选择“任务管理器”。
- nvidia-smi:这是NVIDIA显卡自带的管理工具,可以查看GPU的显存、温度、功耗等信息。在命令行中输入nvidia-smi即可查看当前的GPU状态。如果希望自动刷新,可以使用watch -n 1 nvidia-smi命令,这样会以每秒一次的频率刷新GPU使用情况
可以看到显卡的驱动的版本是528.92;最高支持的CUDA版本是12.0版本。
- CUDA(构筑在显卡驱动(需要提前安装)之上的工具库(toolkit),有时候也叫cudatoolkit,CUDA是NVIDIA推出的用于自家GPU的并行计算框架,也就是说CUDA只能在NVIDIA的GPU上运行)。使用 nvcc命令查看机器CUDA的安装情况:打开命令提示符(Windows)或终端(Linux/macOS),输入以下命令:
- nvcc --version 或者 nvcc -V
注意:我系统安装的CUDA版本是11.6。cudnn其实就是CUDA的一个补丁而已,专为深度学习运算进行优化的。
二、分析解决过程
Linux系统安装的CUDA是12.0:
当前conda环境Pytorch绑定依赖的CUDA是11.8:
也可以通过下面的脚本查看当前PyTorch绑定的CUDA:
import torch
print(torch.version.cuda)
这将输出当前PyTorch绑定的CUDA版本,便于确认是否与系统中的CUDA版本匹配。系统的cuda是12.0版本,但conda环境中的cuda版本为11.8,两个版本不完全匹配。
网上大多数人的说法:conda虚拟环境中的cudatoolkit和系统的cuda应该是相互独立的,PyTorch也会优先使用虚拟环境中的cudatoolkit,而不是系统中的cuda。但是在编译一些程序的时候,还是会优先使用系统安装的cuda(/usr/local/cuda)。例如,通过如下指令:
from torch.utils.cpp_extension import CUDA_HOME
print(CUDA_HOME)
但是高版本的系统驱动一般向下兼容支持低版本的cudatoolkit,但是由于本地CUDA环境已经为12.0,anaconda环境cuda版本为11.8,两者跨越一个大版本容易不兼容,出现安装不成功的情况。会不会是这个原因呢?查看报错的具体原因:
可以看到,原来是编译过程中有函数在检查版本是否一致。可以把这句话注释掉。
作者简介: 读研期间发表6篇SCI数据算法相关论文,目前在某研究院从事数据算法相关研究工作,结合自身科研实践经历持续分享关于Python、数据分析、特征工程、机器学习、深度学习、人工智能系列基础知识与案例。关注gzh:数据杂坛,获取数据和源码学习更多内容。
原文链接: