论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
应用中心
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
qidao123.com技术社区-IT企服评测·应用市场
»
论坛
›
人工智能
›
人工智能
›
全面把握大模型:LLaMA-Factory深度解析,看一篇文章就 ...
全面把握大模型:LLaMA-Factory深度解析,看一篇文章就够了! ...
写过一篇
论坛元老
|
2024-11-18 11:33:25
|
显示全部楼层
|
阅读模式
楼主
主题
1788
|
帖子
1788
|
积分
5364
LLaMA-Factory
怎样高效地微调和摆设大型语言模型(LLM)?
LLaMA-Factory作为一个开源的微调框架,应运而生,为开发者提供了一个简便、高效的工具,
以便在现有的预练习模型根本上,快速适应特定任务需求,提升模型表现。
LLaMA-Factory作为一个功能
强大且高效的
大模型微调框架,通过其用户友好的界面和丰富的功能特性,为开发者提供了极大的便利。
LLaMA-Factory
一、
LLaMA-Factory
什么是LLaMA-Factory?
LLaMA-Factory,全称Large Language Model Factory,即大型语言模型工厂。它支持
多种预练习模型和微调算法
,提供了一套完整的工具和接口,使得用户能够轻松地对
预练习的模型进行定制化的练习和调解
**,以适应特定的应用场景,如
智能客服、语音识别、呆板翻译
等。**
LLaMA-Factory
支持的模型:LLaMA-Factory支持多种大型语言模型,包括但不限于LLaMA、BLOOM、Mistral、Baichuan、Qwen、ChatGLM等。
集成方法:包括(增量)预练习、指令监督微调、奖励模型练习、PPO练习、DPO练习和ORPO练习等多种方法。
运算精度与优化算法:提供32比特全参数微调、16比特冻结微调、16比特LoRA微调和基于AQLM/AWQ/GPTQ/LLM.int8的2/4/8比特QLoRA微调等多种精度选择,以及GaLore、DoRA、LongLoRA、LLaMA Pro、LoRA+、LoftQ和Agent微调等先进算法。
LLaMA-Factory
LLaMA-Factory提供了简便明了的操纵界面和丰富的文档支持,使得用户能够轻松上手并快速实现模型的微调与优化。
用户可以根据本身的需求选择不同的模型、算法和精度进行微调,以获得最佳的练习效果。
LLaMA-Factory
二、模型微调(Fine-Tuning)
怎样使用
LLaMA-Factory
进行模型微调?
使用LLaMA-Factory进行模型微调是一个涵盖从
选择模型、数据加载、参数配置到练习、评估优化直至摆设应用****的全面且高效的流程。
1. 选择模型:
根据应用场景和需求选择合适的预练习模型。
设置语言:
进入WebUI后,可以切换到中文(zh)。
配置模型:
选择LLaMA3-8B-Chat模型。
配置微调方法:
微调方法则保持默认值
lora
,使用LoRA轻量化微调方法能极大程度地节流显存。
2. 加载数据:
将预备好的数据集加载到LLaMA-Factory中。
LLaMA-Factory项目内置了丰富的数据集,放在了data目录下。同时也可以本身预备自界说数据集,将数据处理为框架特定的格式,放到指定的data目录下。
3. 配置参数:
根据实际环境调解学习率、批次巨细等练习参数。
学习率+梯度累积:
设置学习率为1e-4,梯度累积为2,有利于模型拟合。
计算范例:
如果是NVIDIA V100显卡,计算范例保持为fp16;如果使用了AMD A10系列显卡,可以更改计算范例为bf16。
LoRA参数设置:
设置LoRA+学习率比例为16,LoRA+被证明是比LoRA学习效果更好的算法。在LoRA作用模块中填写all,即将LoRA层挂载到模型的所有线性层上,提高拟合效果。
4. 开始练习:
启动练习过程,并监控模型的练习进度和性能表现。
输出目录
:将输出目录修改为train_llama3,练习后的LoRA权重将会生存在此目录中。
预览命令:
点击「预览命令」可展示所有已配置的参数,如果想通过代码运行微调,可以复制这段命令,在命令行运行。
开始:
点击「开始」启动模型微调。
练习完毕:
启动微调后必要等候一段时间,待模型下载完毕后可在界面观察到练习进度和损失曲线。模型微调大约必要20分钟,表现“练习完毕”代表微调成功。
5. 评估与优化:
使用LLaMA-Factory提供的评估工具对模型性能进行评估,并根据评估结果进行针对性的优化。
刷新适配器:
微调完成后,点击页面顶部的「刷新适配器」
适配器路径:
点击适配器路径,即可弹出刚刚练习完成的LoRA权重,点击选择下拉列表中的train_llama3选项,在模型启动时即可加载微调结果。
评估模型:
选择「Evaluate&
redict」栏,在数据集下拉列表中选择「eval」(验证集)评估模型。
输出目录:
更改输出目录为eval_llama3,模型评估结果将会生存在该目录中。
开始评估:
最后点击开始按钮启动模型评估。
评估分数:
模型评估大约必要5分钟左右,评估完成后会在界面上表现验证集的分数。
ROUGE分数:
其中ROUGE分数衡量了模型输出答案(predict)和验证会合尺度答案(label)的相似度,ROUGE分数越高代表模型学习得更好。
6. 摆设应用:
将练习好的模型摆设到实际应用场景中,实现其功能和价值。
加载模型:
选择「Chat」栏,确保适配器路径是train_llama3,点击「加载模型」即可在Web UI中和微调模型进行对话。
卸载模型:
点击「卸载模型」,点击“×”号取消适配器路径,再次点击「加载模型」,即可与微调前的原始模型聊天。
怎样学习AI大模型 ?
“最先把握AI的人,将会比力晚把握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少偕行后辈。资助许多人得到了学习和成长。
我意识到有许多履历和知识值得分享给大家,故此将并将重要的AI大模型资料包括
AI大模型入门学习头脑导图、精品AI大模型学习册本手册、视频教程、实战学习等录播视频免费分享出来。【保证100%免费】
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
使用道具
举报
0 个回复
正序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
发新帖
回复
写过一篇
论坛元老
这个人很懒什么都没写!
楼主热帖
hibernate入门
kubernetes数据持久化StorageClass动态 ...
回忆我的第一个软件项目
Debian/Ubuntu使用apt安装php8.x
26基于java的电影院售票管理系统设计 ...
Java EnumMap putAll()方法具有什么功 ...
OpenHarmony开源鸿蒙与HarmonyOS商业鸿 ...
管理软件定制公司 广州管理软件定制开 ...
Jvm调优
袋鼠云产品功能更新报告08期|近百项全 ...
标签云
渠道
国产数据库
集成商
AI
运维
CIO
存储
服务器
浏览过的版块
Java
快速回复
返回顶部
返回列表