利用LLaMA Factory踩坑记录

打印 上一主题 下一主题

主题 986|帖子 986|积分 2968

前置条件:电脑显卡RTX 4080
题目:LLaMA-Factory在运行的时候,弹出未检测到CUDA的报错信息
结论:出现了以上的报错,主要可以归结于以下两个方面
1、没有安装GPU版本的pytorch,下载的是CPU版本的pytorch;
2、安装的CUDA和安装的pytorch的版本不相互对应。
这里要留意,python的版本对应者pytorch的版本,pytorch的版本又对应着CUDA的版本。
可以参考这个博文:Torch not compiled with CUDA enabled题目办理过程记录-CSDN博客
题目办理过程:
我本机出现这个报错时的CUDA环境是如许的:

最高支持12.6,我装了12.2版本的cuda。python版本为3.11。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

篮之新喜

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表