前置条件:电脑显卡RTX 4080
题目:LLaMA-Factory在运行的时候,弹出未检测到CUDA的报错信息
结论:出现了以上的报错,主要可以归结于以下两个方面:
1、没有安装GPU版本的pytorch,下载的是CPU版本的pytorch;
2、安装的CUDA和安装的pytorch的版本不相互对应。
这里要留意,python的版本对应者pytorch的版本,pytorch的版本又对应着CUDA的版本。
可以参考这个博文:Torch not compiled with CUDA enabled题目办理过程记录-CSDN博客
题目办理过程:
我本机出现这个报错时的CUDA环境是如许的:
最高支持12.6,我装了12.2版本的cuda。python版本为3.11。
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |