qidao123.com技术社区-IT企服评测·应用市场

标题: 解决LLaMA Factory的webUI界面显示“错误”的问题 [打印本页]

作者: 种地    时间: 2024-11-1 08:08
标题: 解决LLaMA Factory的webUI界面显示“错误”的问题
按照官网使用PAI-DSW出现“错误”

执行llamafactory-cli version后显示webUI但是每行都酿成“错误”

解决办法

1.查看是否完备执行官网命令

  1. pip uninstall -y vllm
  2. pip install llamafactory[metrics]==0.7.1
  3. pip install accelerate==0.30.1
复制代码
2.若仍旧报错,则进入到LLaMA-Factory目录下依次执行如下命令

  1. pip install -e .[torch,metrics]
  2. pip install --no-deps -e .
  3. export GRADIO_SERVER_PORT=7860 GRADIO_ROOT_PATH=/${JUPYTER_NAME}/proxy/7860/
  4. CUDA_VISIBLE_DEVICES=0 USE_MODELSCOPE_HUB=1 python src/webui.py
复制代码
便可出现如下界面


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。




欢迎光临 qidao123.com技术社区-IT企服评测·应用市场 (https://dis.qidao123.com/) Powered by Discuz! X3.4