ToB企服应用市场:ToB评测及商务社交产业平台

标题: 20K star!搞定 LLM 微调的开源利器LLaMA Factory [打印本页]

作者: 美丽的神话    时间: 2024-8-10 06:01
标题: 20K star!搞定 LLM 微调的开源利器LLaMA Factory
LLM(大语言模型)微调一直都是老浩劫问题,不仅因为微调必要大量的盘算资源,而且微调的方法也许多,要去尝试每种方法的结果,必要安装大量的第三方库和依赖,甚至要接入一些框架,大概在还没开始微调就已经因为情况配置而放弃了。
本日我们分享一个开源项目可以快速举行 LLM 微调,它不单运行效率高,而且还可以在微调过程中举行可视化,非常方便,它就是:LLaMA Factory。

关于LLM 微调

微调大型语言模型必要付出巨大的盘算代价,因此高效微调技术应运而生。这些技术可分为两大类:优化型和盘算型。
优化型技术

冻结微调(Freeze-tuning) 是一种常见的高效微调方法,它将大部分参数固定不变,只微调解码器的少数几层。这种方式可以大幅低落练习成本,但也大概导致模型性能降落。
梯度低秩投影(GaLore) 的做法是将梯度投影到一个低维空间,从而达到全参数学习的结果,但内存使用量大幅低落。这种方法在大模型上表现较好,因为大模型每每存在较多冗余,投影后损失不大。
低秩适配(LoRA) 是一种非常高效的微调方法,它不会改变预练习模型的原始权重参数。相反,LoRA在必要微调的层上引入了一对小的可练习矩阵,称为低秩矩阵。在前向过程中,模型会对原始权重张量和LoRA低秩矩阵举行相乘运算,得到改变后的权重用于盘算。而在反向流传时,只必要盘算和更新这对小矩阵的梯度。
这种做法的优势是,可以在不存储新权重的情况下实现模型的微调,从而极大节流内存。对于大型语言模型,权重参数每每占用大部分显存,LoRA能让练习过程只需少量额外显存即可举行。
当结合量化(Quantization)技术时,LoRA的内存优势就更加显着了。量化是将原本占用较多字节的float32/float16类型权重压缩为int8/int4等低比特类型表示,从而低落存储需求。量化后的QLoRA(Quantized LoRA)能将参数内存占用从每个参数18字节降至仅0.6字节,是一种极高效的微调方案。
实验表明,LoRA和QLoRA在较小模型上的结果最为出众,能以最小的内存overhead得到与全量精调相当的性能。其中当结合量化技术时(QLoRA),内存占用会进一步低落。
另一种被称为分解权重低秩适配(DoRA)的方法,在LoRA的底子上举行了改进。DoRA将预练习权重矩阵分解为量级分量和方向分量两部分。它只对方向分量部分应用LoRA,而量级分量保持不变。
这样做的大概性是,预练习权重中的方向分量大概包含了更多使命相干的知识,而量级分量则更多地控制输出的数值范围。因此,只对方向部分举行低秩微调,大概会得到更好的结果。
DoRA相比LoRA的优势在于,使用相同内存开销时,每每能取得更高的性能。但它也增加了盘算量,必要预先对权重举行分解。因此在差别场景下,LoRA和DoRA都有大概是更优选择。
LoRA、QLoRA和DoRA等优化型方法极大低落了LLM微调的内存需求,是高效微调中不可或缺的重要技术。LLAMAFACTORY框架对这些技术举行了很好的统一实现,大大简化了用户的使用流程。
LLAMAFACTORY采用了模块化筹划,可以灵活插入和切换上述各种优化技术。用户无需coding,只需在LLAMABOARD界面上勾选所需方法即可。
盘算型技术

混合精度练习和激活重盘算 是最常见的两种节流盘算量的方法。前者使用低精度(如FP16)来存储激活值和权重;后者则通过重新盘算激活值来节流存储,从而低落内存占用。
闪电注意力(Flash Attention) 是一种对注意力层举行优化的新算法,它以硬件友好的方式重新安排盘算过程,大幅提高性能。S2注意力(S2 Attention)则致力于解决长文本注意力盘算时的内存开销问题。
此外,各种量化技术如LLM.int8和QLoRA,能将权重和激活值压缩至低精度表示,从而节流大量内存。不过量化模型只能使用基于适配器的微调方法(如LoRA)。
Unsloth则是针对LoRA层的反向流传举行了优化,低落了梯度盘算所需的浮点运算数,加快了LoRA练习过程。
LLaMA Factory 将上述技术举行了整合,自动识别模型布局来决定启用哪些优化本领。用户无需关心技术细节,只需选择盼望的内存占用和性能要求即可。同时,LLaMA Factory 还支持分布式练习加快等功能。但分布式练习要在CLI上举行。国内许多大模型都是用这个技术微调的,这些数据来自作者的 GithubREADME文档:

如果你也想尽快推出自己的大模型,这个框架肯定是你学习成本最小的方式。
LLaMA Factory 是什么

LLaMA-Factory是一个统一的框架,集成了一套先辈的高效练习方法。它允许用户通过内置的Web UI灵活定制100多个LLMs的微调,而无需编写代码。

项目具有以下的特色:

与 ChatGLM 官方的 P-Tuning 微调相比,LLaMA Factory 的 LoRA 微调提供了 3.7 倍的加快比,同时在广告文案生成使命上取得了更高的 Rouge 分数。结合 4 比特量化技术,LLaMA Factory 的 QLoRA 微调进一步低落了 GPU 显存斲丧。
LLaMA Factory 的部署安装非常简朴,只必要按照官方仓库中的步骤实验即可,实验命令如下:
  1. # 克隆仓库
  2. git clone <https://github.com/hiyouga/LLaMA-Factory.git>
  3. # 创建虚拟环境
  4. conda create -n llama_factory python=3.10
  5. # 激活虚拟环境
  6. conda activate llama_factory
  7. # 安装依赖
  8. cd LLaMA-Factory
  9. pip install -r requirements.txt
复制代码
接下来是下载 LLM,可以选择自己常用的 LLM,包罗 ChatGLM,BaiChuan,QWen,LLaMA 等,这里我们下载 BaiChuan 模型举行演示:
  1. # 方法一:开启 git lfs 后直接 git clone 仓库
  2. git lfs install
  3. git clone <https://huggingface.co/baichuan-inc/Baichuan2-13B-Chat>
  4. # 方法二:先下载仓库基本信息,不下载大文件,然后再通过 huggingface 上的文件链接下载大文件
  5. GIT_LFS_SKIP_SMUDGE=1 git clone <https://huggingface.co/baichuan-inc/Baichuan2-13B-Chat>
  6. cd Baichuan2-13B-Chat
  7. wget "<https://huggingface.co/baichuan-inc/Baichuan2-13B-Chat/resolve/main/pytorch_model-00001-of-00003.bin>"
复制代码
方法一的方式会将仓库中的 git 纪录一并下载,导致下载下来的文件比较大,建议是采用方法二的方式,速度更快团体文件更小。
使用 LLaMA Factory

启动 LLaMA Factory 的 WebUI 页面,实验命令如下:
  1. CUDA_VISIBLE_DEVICES=0 python src/train_web.py
复制代码
启动后的界面如下:

解释一波

界面分上下两部分,上半部分是模型练习的基本配置,有如下参数:

下半部分是一个页签窗口,分为Train、Evaluate、Chat、Export四个页签,微调先看Train界面,有如下参数:

参数设置完后点击预览命令按钮可以检察本次微调的命令,确认无误后点击开始按钮就开始微调了,因为数据量比较少,大概几分钟微调就完成了(具体时间还要视呆板配置而定,笔者使用的是 A40 48G GPU),在界面的右下方还可以看到微调过程中损失函数曲线,损失函数的值越低,模型的预测结果通常越好。

进入Chat页签 对微调模型举行试用。起首点击页面上的革新断点按钮,然后选择我们最近微调的断点名称,再点击加载模型按钮,等待加载完成后就可以举行对话了,输入微调数据集中的问题,然厥后看看微调后的LLM的答复吧。

模型导出

如果觉得微调的模型没有问题,就可以将模型导出并正式使用了,点击Export页签,在导出目录中输入导出的文件夹地点。一样寻常模型文件会比较大,右边的最大分块大小参数用来将模型文件按照大小举行切分,默认是10GB,比如模型文件有 15G,那么切分后就变成 2 个文件,1 个 10G,1 个 5G。设置完成后点击开始导出按钮即可,等导出完成后,就可以在对应目录下看到导出的模型文件了。

LLaMA-Factory 布局

LLaMA-Factory由三个主要模块组成:模型加载器(Model Loader)数据处理器(Data Worker)练习器(Trainer)


总结

在人工智能范畴,大型语言模型(LLM)微调(Fine-Tuning)是当下最热门的话题之一。总体来说LLaMA Factory 是一个非常优质的工具,在LLM微调中帮助用户节流了大量的精力。
这些模型拥有惊人的语言明白和生成能力,但要微调和部署它们以适应特定使命,每每必要大量盘算资源和专业知识,代码调试还得有深厚的技术功底。
项目信息


   参考:
[1] LLaMA Factory: https://github.com/hiyouga/LLaMA-Factory
[2]ChatGLM-Efficient-Turning: https://github.com/hiyouga/ChatGLM-Efficient-Tuning
[3]AutoDL: https://www.autodl.com/home

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。




欢迎光临 ToB企服应用市场:ToB评测及商务社交产业平台 (https://dis.qidao123.com/) Powered by Discuz! X3.4