llamafactory-cli:未找到命令

打印 上一主题 下一主题

主题 841|帖子 841|积分 2523

媒介

记载本人安装llamafactory过程中遇到的题目。

一、linux中安装llamafactory

按照代码安装
  1. git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
  2. cd LLaMA-Factory
  3. pip install -e ".[torch,metrics]"
复制代码
二、启动web页面

  1. llamafactory-cli webui                           #启动网页端
  2. llamafactory-cli version                         #查看当前版本
复制代码
但是不停报错 llamafactory-cli:未找到命令
查了许久,按照别人的方法cd到LLaMA-Factory目录中再次pip install -e “.[torch,metrics]”,毫无作用
三、办理方法:设置环境变量

缘故原由是没设置llamafactory的环境
  1. vim ~/.bashrc                                    #修改用户的配置文件
  2. export PATH=$PATH:/home/simit/.local/bin/        #在文件中加入这段命令,simit是我的用户名,因人而异
复制代码
打开文件后 i 进入编辑模式,ESC退出编辑模式 shift+:进入指令模式后 wq保存
  1. source ~/.bashrc   
复制代码
llamafactory-cli version 乐成表现版本

四、增补错误及操作

1.通讯不兼容
NotImplementedError: Using RTX 4000 series doesn’t support faster communication broadband via P2P or IB. Please set NCCL_P2P_DISABLE=“1” and NCCL_IB_DISABLE=“1” or use accelerate launch` which will do this automatically.
  1. #继续添加环境变量
  2. export NCCL_P2P_DISABLE=1
  3. export NCCL_IB_DISABLE=1
复制代码
2.单张显卡使用
LLaMA Factory 的 Web UI 现在只支持单卡训练/推理,当你的呆板有多张显卡时请使用 CUDA_VISIBLE_DEVICES 指定一张显卡启动程序。
  1. nvidia-smi                                       #查看显卡信息及使用状态
复制代码

  1. CUDA_VISIBLE_DEVICES=4 llamafactory-cli webui    #指定第四张显卡使用
复制代码
总结

希望对您有所帮助!

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

冬雨财经

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表