安装指南:LLaMA Factory、AutoGPTQ 和 vllm

打印 上一主题 下一主题

主题 1048|帖子 1048|积分 3144

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?立即注册

x
安装指南:LLaMA Factory、AutoGPTQ 和 vllm

在本文中,我们将具体介绍怎样安装 LLaMA Factory、AutoGPTQ 和 vllm,这些工具在大型语言模型(LLMs)和视觉语言模型(VLMs)的微调和量化中非常有效。我们将逐步引导你完成整个安装过程,确保你能够顺利开始使用这些强大的工具。
1. 安装 LLaMA Factory

LLaMA Factory 是一个统一高效的微调框架,支持 100 多种大型语言模型和视觉语言模型。以下是安装 LLaMA Factory 的步骤:
步骤 1:克隆 LLaMA Factory 仓库

打开终端或命令提示符,运行以下命令:
bash复制
  1. git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
  2. cd LLaMA-Factory
复制代码
步骤 2:安装依靠

使用以下命令安装 LLaMA Factory 的依靠:
bash复制
  1. pip install -e ".[torch,metrics]"
复制代码
这将安装 PyTorch 和评估指标相关的依靠。如果你需要其他额外的依靠,可以使用以下命令:
bash复制
  1. pip install -e ".[torch,metrics,deepspeed,liger-kernel,bitsandbytes]"
复制代码
2. 安装 AutoGPTQ

AutoGPTQ 是一个基于 GPTQ 算法的易于使用的 LLM 量化包。以下是安装 AutoGPTQ 的步骤:
步骤 1:克隆 AutoGPTQ 仓库

打开终端或命令提示符,运行以下命令:
bash复制
  1. git clone https://github.com/PanQiWei/AutoGPTQ.git
  2. cd AutoGPTQ
复制代码
步骤 2:安装依靠

使用以下命令安装 AutoGPTQ 的依靠:
bash复制
  1. pip install .
复制代码
如果你需要使用 Triton 后端,可以使用以下命令:
bash复制
  1. pip install auto-gptq[triton] --no-build-isolation
复制代码
留意事项



  • CUDA 支持:确保你的系统支持 CUDA,而且安装了适当的 CUDA 版本。
  • ROCm 支持:如果你使用的是 AMD GPU,可以设置 ROCM_VERSION 环境变量来安装 ROCm 支持。
  • Intel® Gaudi® 2 支持:如果你使用的是 Intel Gaudi 2 HPUs,需要设置 BUILD_CUDA_EXT=0 环境变量。
3. 安装 vllm

vllm 是一个用于高效推理的库,支持多种量化方法。以下是安装 vllm 的步骤:
步骤 1:安装 vllm

使用以下命令安装 vllm:
bash复制
  1. pip install "vllm>=0.4.3,<=0.6.5" -i https://pypi.tuna.tsinghua.edu.cn/simple
复制代码
这个命令会从清华大学的镜像源安装 vllm,确保下载速率更快。
步骤 2:验证安装

安装完成后,可以使用以下命令验证 vllm 是否安装乐成:
bash复制
  1. pip show vllm
复制代码
4. 常见标题及办理方案

标题 1:依靠冲突

如果你遇到依靠冲突标题,可以实验以下命令:
bash复制
  1. pip install --no-deps -e .
复制代码
标题 2:CUDA 版本不兼容

确保你的 CUDA 版本与 vllm 和 AutoGPTQ 的要求一致。如果版本不兼容,可以实验安装不同版本的 CUDA 或者使用其他镜像源。
标题 3:安装失败

如果安装失败,可以实验以下步骤:

  • 清理缓存
    bash复制
    1. pip cache purge
    复制代码
  • 重新安装
    bash复制
    1. pip install --upgrade pippip install "vllm>=0.4.3,<=0.6.5" -i https://pypi.tuna.tsinghua.edu.cn/simple
    复制代码
5. 结论

通过以上步骤,你应该能够乐成安装 LLaMA Factory、AutoGPTQ 和 vllm。这些工具将帮助你在大型语言模型和视觉语言模型的微调和量化方面取得更好的效果。如果你在安装过程中遇到任何标题,可以参考官方文档或在相关社区寻求帮助。
渴望本文对你有所帮助!如果有任何标题或建议,欢迎随时提出。


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

钜形不锈钢水箱

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表