qidao123.com技术社区-IT企服评测·应用市场
标题:
解决LLaMA Factory的webUI界面显示“错误”的问题
[打印本页]
作者:
种地
时间:
2024-11-1 08:08
标题:
解决LLaMA Factory的webUI界面显示“错误”的问题
按照官网使用PAI-DSW出现“错误”
执行llamafactory-cli version后显示webUI但是每行都酿成“错误”
解决办法
1.查看是否完备执行官网命令
pip uninstall -y vllm
pip install llamafactory[metrics]==0.7.1
pip install accelerate==0.30.1
复制代码
2.若仍旧报错,则进入到LLaMA-Factory目录下依次执行如下命令
pip install -e .[torch,metrics]
pip install --no-deps -e .
export GRADIO_SERVER_PORT=7860 GRADIO_ROOT_PATH=/${JUPYTER_NAME}/proxy/7860/
CUDA_VISIBLE_DEVICES=0 USE_MODELSCOPE_HUB=1 python src/webui.py
复制代码
便可出现如下界面
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
欢迎光临 qidao123.com技术社区-IT企服评测·应用市场 (https://dis.qidao123.com/)
Powered by Discuz! X3.4