论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
应用中心
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
qidao123.com技术社区-IT企服评测·应用市场
»
论坛
›
人工智能
›
人工智能
›
一文彻底搞懂大模子 - LLaMA-Factory
一文彻底搞懂大模子 - LLaMA-Factory
慢吞云雾缓吐愁
论坛元老
|
2025-3-16 04:45:16
|
显示全部楼层
|
阅读模式
楼主
主题
1626
|
帖子
1626
|
积分
4878
LLaMA-Factory
怎样高效地微调和摆设大型语言模子(LLM)?LLaMA-Factory作为一个开源的微调框架,应运而生,为开发者提供了一个轻巧、高效的工具,
以便在现有的预训练模子基础上,快速适应特定任务需求,提升模子表现。
LLaMA-Factory作为一个功能
强大且高效的
大模子微调框架
,通过其用户友好的界面和丰富的功能特性,为开发者提供了极大的便利。
前排提示,文末有大模子AGI-CSDN独家资料包哦!
LLaMA-Factory
一、
LLaMA-Factory
什么是LLaMA-Factory?
LLaMA-Factory,全称Large Language Model Factory,即大型语言模子工厂。它支持
多种预训练模子和微调算法
,提供了一套完整的工具和接口,使得用户能够轻松地对
预训练的模子举行定制化的训练和调整,以适应特定的应用场景,如
智能客服、语音识别、机器翻译等。
LLaMA-Factory
支持的模子:LLaMA-Factory支持多种大型语言模子,包括但不限于LLaMA、BLOOM、Mistral、Baichuan、Qwen、ChatGLM等。
集成方法:包括(增量)预训练、指令监视微调、奖励模子训练、PPO训练、DPO训练和ORPO训练等多种方法。
运算精度与优化算法:提供32比特全参数微调、16比特冻结微调、16比特LoRA微调和基于AQLM/AWQ/GPTQ/LLM.int8的2/4/8比特QLoRA微调等多种精度选择,以及GaLore、DoRA、LongLoRA、LLaMA Pro、LoRA+、LoftQ和Agent微调等先进算法。
LLaMA-Factory
LLaMA-Factory提供了简便明确的操纵界面和丰富的文档支持,使得用户能够轻松上手并快速实现模子的微调与优化。用户可以根据自己的需求选择不同的模子、算法和精度举行微调,以获得最佳的训练效果。
LLaMA-Factory
二、模子微调(Fine-Tuning)
怎样利用
LLaMA-Factory
举行模子微调?
利用LLaMA-Factory举行模子微调是一个涵盖从
选择模子、数据加载、参数配置到训练、评估优化直至摆设应用的全面且高效的流程。
1. 选择模子:
根据应用场景和需求选择合适的预训练模子。
设置语言
:进入WebUI后,可以切换到中文(zh)。
配置模子
:选择LLaMA3-8B-Chat模子。
配置微调方法
:微调方法则保持默认值
lora
,利用LoRA轻量化微调方法能极大程度地节约显存。
2. 加载数据:
将预备好的数据集加载到LLaMA-Factory中。
LLaMA-Factory项目内置了丰富的数据集,放在了data目次下。同时也可以自己预备自界说数据集,将数据处理为框架特定的格式,放到指定的data目次下。
3. 配置参数:
根据实际情况调整学习率、批次巨细等训练参数。
学习率+梯度累积
:设置学习率为1e-4,梯度累积为2,有利于模子拟合。
盘算范例
:如果是NVIDIA V100显卡,盘算范例保持为fp16;如果利用了AMD A10系列显卡,可以更改盘算范例为bf16。
LoRA参数设置
:设置LoRA+学习率比例为16,LoRA+被证明是比LoRA学习效果更好的算法。在LoRA作用模块中填写all,即将LoRA层挂载到模子的全部线性层上,提高拟合效果。
4. 开始训练:
启动训练过程,并监控模子的训练进度和性能表现。
输出目次
:将输出目次修改为train_llama3,训练后的LoRA权重将会生存在此目次中。
预览下令
:点击「预览下令」可展示全部已配置的参数,如果想通过代码运行微调,可以复制这段下令,在下令行运行。
开始
:点击「开始」启动模子微调。
训练完毕
:启动微调后必要等待一段时间,待模子下载完毕后可在界面观察到训练进度和损失曲线。模子微调约莫必要20分钟,表现“训练完毕”代表微调成功。
5. 评估与优化:
利用LLaMA-Factory提供的评估工具对模子性能举行评估,并根据评估结果举行针对性的优化。
刷新适配器
:微调完成后,点击页面顶部的「刷新适配器」
适配器路径
:点击适配器路径,即可弹出刚刚训练完成的LoRA权重,点击选择下拉列表中的train_llama3选项,在模子启动时即可加载微调结果。
评估模子
:选择「Evaluate&
redict」栏,在数据集下拉列表中选择「eval」(验证集)评估模子。
输出目次
:更改输出目次为eval_llama3,模子评估结果将会生存在该目次中。
开始评估
:末了点击开始按钮启动模子评估。
评估分数
:模子评估约莫必要5分钟左右,评估完成后会在界面上表现验证集的分数。
ROUGE分数
:其中ROUGE分数衡量了模子输出答案(predict)和验证集中标准答案(label)的相似度,ROUGE分数越高代表模子学习得更好。
6. 摆设应用:
将训练好的模子摆设到实际应用场景中,实现其功能和代价。
加载模子
:选择「Chat」栏,确保适配器路径是train_llama3,点击「加载模子」即可在Web UI中和微调模子举行对话。
卸载模子
:点击「卸载模子」,点击“×”号取消适配器路径,再次点击「加载模子」,即可与微调前的原始模子聊天。
怎样学习AI大模子 ?
“最先把握AI的人,将会比较晚把握AI的人有竞争优势”。
这句话,放在盘算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,引导过不少偕行子弟。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给各人,故此将并将重要的AI大模子资料。
包括AI大模子入门学习头脑导图、精品AI大模子学习册本手册、视频教程、实战学习等录播视频免费分享出来。【保证100%免费】
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
使用道具
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
慢吞云雾缓吐愁
论坛元老
这个人很懒什么都没写!
楼主热帖
聊聊 C# 方法重载的底层玩法 ...
使用 Mypy 检查 30 万行 Python 代码, ...
Linux安装PHP8 新版笔记
微信公众平台测试号申请、使用HBuilder ...
Blazor WebAssembly + Grpc Web = 未来 ...
【只与自己有关】人往高处走?何为高? ...
【MAC工具】各个Xcode版本对应macOS的 ...
Apache Shiro 身份验证绕过漏洞 (CVE-2 ...
Java多线程(7):JUC(上)
WPF 视频硬解码渲染播放(无空域问题) ...
标签云
渠道
国产数据库
集成商
AI
运维
CIO
存储
服务器
浏览过的版块
Java
前端开发
快速回复
返回顶部
返回列表