媒介
记载本人安装llamafactory过程中遇到的题目。
一、linux中安装llamafactory
按照代码安装
- git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
- cd LLaMA-Factory
- pip install -e ".[torch,metrics]"
复制代码 二、启动web页面
- llamafactory-cli webui #启动网页端
- llamafactory-cli version #查看当前版本
复制代码 但是不停报错 llamafactory-cli:未找到命令
查了许久,按照别人的方法cd到LLaMA-Factory目录中再次pip install -e “.[torch,metrics]”,毫无作用
三、办理方法:设置环境变量
缘故原由是没设置llamafactory的环境
- vim ~/.bashrc #修改用户的配置文件
- export PATH=$PATH:/home/simit/.local/bin/ #在文件中加入这段命令,simit是我的用户名,因人而异
复制代码 打开文件后 i 进入编辑模式,ESC退出编辑模式 shift+:进入指令模式后 wq保存
llamafactory-cli version 乐成表现版本
四、增补错误及操作
1.通讯不兼容
NotImplementedError: Using RTX 4000 series doesn’t support faster communication broadband via P2P or IB. Please set NCCL_P2P_DISABLE=“1” and NCCL_IB_DISABLE=“1” or use accelerate launch` which will do this automatically.
- #继续添加环境变量
- export NCCL_P2P_DISABLE=1
- export NCCL_IB_DISABLE=1
复制代码 2.单张显卡使用
LLaMA Factory 的 Web UI 现在只支持单卡训练/推理,当你的呆板有多张显卡时请使用 CUDA_VISIBLE_DEVICES 指定一张显卡启动程序。
- CUDA_VISIBLE_DEVICES=4 llamafactory-cli webui #指定第四张显卡使用
复制代码 总结
希望对您有所帮助!
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |