解决LLaMA Factory的webUI界面显示“错误”的问题

种地  论坛元老 | 2024-11-1 08:08:31 | 显示全部楼层 | 阅读模式
打印 上一主题 下一主题

主题 1837|帖子 1837|积分 5511

按照官网使用PAI-DSW出现“错误”

执行llamafactory-cli version后显示webUI但是每行都酿成“错误”

解决办法

1.查看是否完备执行官网命令

  1. pip uninstall -y vllm
  2. pip install llamafactory[metrics]==0.7.1
  3. pip install accelerate==0.30.1
复制代码
2.若仍旧报错,则进入到LLaMA-Factory目录下依次执行如下命令

  1. pip install -e .[torch,metrics]
  2. pip install --no-deps -e .
  3. export GRADIO_SERVER_PORT=7860 GRADIO_ROOT_PATH=/${JUPYTER_NAME}/proxy/7860/
  4. CUDA_VISIBLE_DEVICES=0 USE_MODELSCOPE_HUB=1 python src/webui.py
复制代码
便可出现如下界面


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

种地

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表