一文彻底搞懂大模子 - LLaMA-Factory
LLaMA-Factory怎样高效地微调和摆设大型语言模子(LLM)?LLaMA-Factory作为一个开源的微调框架,应运而生,为开发者提供了一个轻巧、高效的工具,以便在现有的预训练模子基础上,快速适应特定任务需求,提升模子表现。LLaMA-Factory作为一个功能强大且高效的大模子微调框架,通过其用户友好的界面和丰富的功能特性,为开发者提供了极大的便利。
前排提示,文末有大模子AGI-CSDN独家资料包哦!
https://img-blog.csdnimg.cn/img_convert/148d19e12bc55b19b1aa71e7ee655ae3.png
LLaMA-Factory
一、LLaMA-Factory
什么是LLaMA-Factory?LLaMA-Factory,全称Large Language Model Factory,即大型语言模子工厂。它支持多种预训练模子和微调算法,提供了一套完整的工具和接口,使得用户能够轻松地对预训练的模子举行定制化的训练和调整,以适应特定的应用场景,如智能客服、语音识别、机器翻译等。
https://img-blog.csdnimg.cn/img_convert/73b280e1fd17ea55dbbda3d0fc61d5a3.jpeg
LLaMA-Factory
[*] 支持的模子:LLaMA-Factory支持多种大型语言模子,包括但不限于LLaMA、BLOOM、Mistral、Baichuan、Qwen、ChatGLM等。
[*] 集成方法:包括(增量)预训练、指令监视微调、奖励模子训练、PPO训练、DPO训练和ORPO训练等多种方法。
[*] 运算精度与优化算法:提供32比特全参数微调、16比特冻结微调、16比特LoRA微调和基于AQLM/AWQ/GPTQ/LLM.int8的2/4/8比特QLoRA微调等多种精度选择,以及GaLore、DoRA、LongLoRA、LLaMA Pro、LoRA+、LoftQ和Agent微调等先进算法。
https://img-blog.csdnimg.cn/img_convert/f2bbe9a6d3c1ca489ac0bf6879c0f016.png
LLaMA-Factory
LLaMA-Factory提供了简便明确的操纵界面和丰富的文档支持,使得用户能够轻松上手并快速实现模子的微调与优化。用户可以根据自己的需求选择不同的模子、算法和精度举行微调,以获得最佳的训练效果。
https://img-blog.csdnimg.cn/img_convert/02d46968039ed0491ff5b0c5df336a27.jpeg
LLaMA-Factory
二、模子微调(Fine-Tuning)
怎样利用LLaMA-Factory举行模子微调?利用LLaMA-Factory举行模子微调是一个涵盖从选择模子、数据加载、参数配置到训练、评估优化直至摆设应用的全面且高效的流程。
1. 选择模子:根据应用场景和需求选择合适的预训练模子。
[*] 设置语言:进入WebUI后,可以切换到中文(zh)。
[*] 配置模子:选择LLaMA3-8B-Chat模子。
[*] 配置微调方法:微调方法则保持默认值lora,利用LoRA轻量化微调方法能极大程度地节约显存。
https://img-blog.csdnimg.cn/img_convert/4e36e958670336de93a3b9aabd10b866.jpeg
2. 加载数据:将预备好的数据集加载到LLaMA-Factory中。
[*]LLaMA-Factory项目内置了丰富的数据集,放在了data目次下。同时也可以自己预备自界说数据集,将数据处理为框架特定的格式,放到指定的data目次下。
https://img-blog.csdnimg.cn/img_convert/8bc449fad05dc703cb87cd39aba4b6dd.jpeg
3. 配置参数:根据实际情况调整学习率、批次巨细等训练参数。
[*] 学习率+梯度累积:设置学习率为1e-4,梯度累积为2,有利于模子拟合。
[*] 盘算范例:如果是NVIDIA V100显卡,盘算范例保持为fp16;如果利用了AMD A10系列显卡,可以更改盘算范例为bf16。
https://img-blog.csdnimg.cn/img_convert/2a267f7f618ed364df205457ac90bced.jpeg
[*]LoRA参数设置:设置LoRA+学习率比例为16,LoRA+被证明是比LoRA学习效果更好的算法。在LoRA作用模块中填写all,即将LoRA层挂载到模子的全部线性层上,提高拟合效果。
https://img-blog.csdnimg.cn/img_convert/7b88356d4c7204a8a96b80b4911d0b0b.jpeg
4. 开始训练:启动训练过程,并监控模子的训练进度和性能表现。
[*] 输出目次:将输出目次修改为train_llama3,训练后的LoRA权重将会生存在此目次中。
[*] 预览下令:点击「预览下令」可展示全部已配置的参数,如果想通过代码运行微调,可以复制这段下令,在下令行运行。
[*] 开始:点击「开始」启动模子微调。
https://img-blog.csdnimg.cn/img_convert/04423aa87162df8b1d3ba7e352d6e9db.jpeg
[*]训练完毕:启动微调后必要等待一段时间,待模子下载完毕后可在界面观察到训练进度和损失曲线。模子微调约莫必要20分钟,表现“训练完毕”代表微调成功。
https://img-blog.csdnimg.cn/img_convert/e298a34a33701aef4041bb797841091c.jpeg
5. 评估与优化:利用LLaMA-Factory提供的评估工具对模子性能举行评估,并根据评估结果举行针对性的优化。
[*] 刷新适配器:微调完成后,点击页面顶部的「刷新适配器」
[*] 适配器路径:点击适配器路径,即可弹出刚刚训练完成的LoRA权重,点击选择下拉列表中的train_llama3选项,在模子启动时即可加载微调结果。
https://img-blog.csdnimg.cn/img_convert/f16e3b62e578fcf14791e1e7da6c57f1.jpeg
[*] 评估模子:选择「Evaluate&Predict」栏,在数据集下拉列表中选择「eval」(验证集)评估模子。
[*] 输出目次:更改输出目次为eval_llama3,模子评估结果将会生存在该目次中。
[*] 开始评估:末了点击开始按钮启动模子评估。
https://img-blog.csdnimg.cn/img_convert/b3ff345047a301a3d699f1b36902c90e.jpeg
[*] 评估分数:模子评估约莫必要5分钟左右,评估完成后会在界面上表现验证集的分数。
[*] ROUGE分数:其中ROUGE分数衡量了模子输出答案(predict)和验证集中标准答案(label)的相似度,ROUGE分数越高代表模子学习得更好。
https://img-blog.csdnimg.cn/img_convert/6bd0ce66af4e3f5b663038d4ae1a50c7.jpeg
6. 摆设应用:将训练好的模子摆设到实际应用场景中,实现其功能和代价。
[*]加载模子:选择「Chat」栏,确保适配器路径是train_llama3,点击「加载模子」即可在Web UI中和微调模子举行对话。
https://img-blog.csdnimg.cn/img_convert/d97cd2283469f422a64d96927f964d87.jpeg
[*]卸载模子:点击「卸载模子」,点击“×”号取消适配器路径,再次点击「加载模子」,即可与微调前的原始模子聊天。
https://img-blog.csdnimg.cn/img_convert/964b11db51d6164e911acd87bd382527.jpeg
怎样学习AI大模子 ?
“最先把握AI的人,将会比较晚把握AI的人有竞争优势”。
这句话,放在盘算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,引导过不少偕行子弟。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给各人,故此将并将重要的AI大模子资料。包括AI大模子入门学习头脑导图、精品AI大模子学习册本手册、视频教程、实战学习等录播视频免费分享出来。【保证100%免费】
页:
[1]