【大模型】基于LLaMA-Factory的模型高效微调

打印 上一主题 下一主题

主题 874|帖子 874|积分 2622

LLaMA-Factory项目先容


LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)练习与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预练习模型的微调,框架特性包罗:


  • 模型种类:LLaMA、LLaVA、Mistral、Mixtral-MoE、Qwen、Yi、Gemma、Baichuan、ChatGLM、Phi 等等。
  • 练习算法:(增量)预练习、(多模态)指令监视微调、奖励模型练习、PPO 练习、DPO 练习、KTO 练习、ORPO 练习等等。
  • 运算精度:16 比特全参数微调、冻结微调、LoRA 微调和基于 AQLM/AWQ/GPTQ/LLM.int8/HQQ/EETQ 的 2/3/4/5/6/8 比特 QLoRA 微调。
  • 优化算法:GaLore、BAdam、DoRA、LongLoRA、LLaMA Pro、Mixture-of-Depths、LoRA+、LoftQ 和 PiSSA。
  • 加速算子:FlashAttention-2 和 Unsloth。
  • 推理引擎:Transformers 和 vLLM。
  • 实验面板:LlamaBoard、TensorBoard、Wandb、MLflow 等等。
  • LLaMA-Factory项目地址:https://github.com/hiyouga/LLaMA-Factory
  • LLaMA-Factory官方文档:https://llamafactory.readthedocs.io/zh-cn/latest/index.html

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

汕尾海湾

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表