论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
应用中心
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
qidao123.com技术社区-IT企服评测·应用市场
»
论坛
›
人工智能
›
人工智能
›
LLMs:Chinese-LLaMA-Alpaca的简介(扩充中文词表+增量预 ...
LLMs:Chinese-LLaMA-Alpaca的简介(扩充中文词表+增量预训练+指令精调)、安 ...
东湖之滨
论坛元老
|
2024-8-26 03:02:37
|
来自手机
|
显示全部楼层
|
阅读模式
楼主
主题
1866
|
帖子
1866
|
积分
5602
LLMs:Chinese-LLaMA-Alpaca的简介(扩充中文词表+增量预训练+指令精调)、安装、案例实战应用之详细攻略
导读
:2023年4月17日,哈工大讯飞联合实验室,本项目开源了中文LLaMA模型和指令精调的Alpaca大模型,以进一步促进大模型在中文NLP社区的开放研究。
Chinese-
LLaMA
在原版LLaMA的基础上举行了
三步走=扩充中文词表+增量预训练+指令精调
:
扩充中文词表
并使用了大规模中文语料数据举行
增量预训练
(由于采用了LoRA技巧,其本质照旧高效参数微调),更好地明白新的语义和语境,进一步提拔了中文基础语义明白能力。然后,
Chinese-
Alpaca
模型进一步使用了中文指令数据举行
指令精调
(依旧采用了LoRA技巧),明显提拔了模型对指令的明白和实行能力。
LoRA权重无法单独使用:明白为原LLaMA模型上的一个补丁,即需要合并原版LLaMA模型才华使用;
针对原版LLaMA模型扩充了中文词表,提拔了中文编解码效率;
开源了使用中文文本数据预训练的
Chinese-LLaMA
以及颠末指令精调的
Chinese-Alpaca
;
开源了预训练脚本、指令精调脚本,用户可根据需要进一步训练模型;
快速使用笔记本电脑(个人PC)的CPU/GPU当地量化和摆设体验大模型;
排疑:
可以不举行增量预训练而直接采用指令微调吗?
如果没有举行增量预训练,模型可能无法充分使用新的中文词表,并可能在生成和明白中碰到困难。不举行增量预训练而直接使用指令微调,可能会限定模型在新的中文词表上的性能温顺应性。因此,建议在举行指令微调之前,先辈行适当的增量预训练,以提高模型的性能温顺应性。
目次
相关文章
论文相关
LLMs:《Efficient and Effective Text Encoding for Chinese LLaMA and
Alpaca-4月17日版》翻译与解读
LLMs:《Efficient And Effective Text Encoding For Chinese Llama And
Alpaca—6月15日版本》翻译与解读
LLMs之LLaMA2:LLaMA2的简介(技能细节)、安装、使用方法(开源-免费用于研究和商业用途)之详细攻略
实战应用相关
LLMs:Chinese-LLaMA-Alpaca的简介(扩充中文词表+增量预训练+指令精调)、安装、案例实战应用之详细攻略
LLMs之Chinese-LLaMA-Alpaca:LLaMA汉化版项目详细源码解读多个py文件-
基于Ng单机单卡实现定义数据集(生成指令数据)→数据预处理(token分词/合并权重)→增量预训练(本质是高效参数微调,LoRA的参数/LLaMA的参数)→指令微调LoRA权重(继承训练/全新训练)→模型推理(CLI、GUI【webui/LLaMACha/LangChain】)
LLMs之Chinese-LLaMA-
Alpaca:基于单机CPU+Windows系统实现中文LLaMA算法举行模型摆设(llama.cpp)+模型推理全流程步调【安装环境+创建环境并安装依赖+原版LLaMA转HF格式+合并llama_hf和chinese-
alpaca-
lora-7b→下载llama.cpp举行模型的量化(CMake编译+生成量化版本模型)→摆设f16/q4_0+测试效果】的图文教程(非常详细)
LLMs:Chinese-LLaMA-Alpaca-2(基于deepspeed框架)的简介、安装、案例实战应用之详细攻略
LLMs之Chinese-LLaMA-
Alpaca-2:源码解读(run_clm_pt_with_peft.py文件)—模型训练前置工作(参数剖析+配置日记)→模型初始化(检测是否存在训练过的checkpoint+加载预训练模型和tokenizer)→数据预处理(处理【标志化+分块】+切分txt数据集)→优化模型配置(量化模块+匹配模型vocabulary大小与tokenizer+初始化PEFT模型【LoRA】+梯度累积checkpointing等)→模型训练(继承训练+评估指标+自动保存中间训练结果)/模型评估(+PPL指标)
LLMs之Chinese-LLaMA-
Alpaca-2:源码解读(run_clm_sft_with_peft.py文件)—模型训练前置工作(参数剖析+配置日记)→模型初始化(检测是否存在训练过的checkpoint+加载预训练模型和tokenizer)→数据预处理(监督式任务的数据收集器+指令数据集【json格式】)→优化模型配置(量化模块+匹配模型vocabulary大小与tokenizer+初始化PEFT模型【LoRA】+梯度累积checkpointing等)→模型训练(继承训练+评估指标+自动保存中间训练结果)/模型评估(+PPL指标)
Chinese-LLaMA-Alpaca的简介
1、主要内容
2、版本更新内容公告
3、系统效果:介绍了部分场景和任务下的使用体验效果
生成效果评测
客观效果评测
4、下图展示了本项目以及二期项目推出的全部大模型之间的关系
5、下面是中文LLaMA和Alpaca模型的根本对比以及建议使用场景(包罗但不限于),更多内容见训练细节。
Chinese-LLaMA-Alpaca的的安装
1、模型下载:中文LLaMA、Alpaca大模型下载地址:LoRA权重无法单独使用(明白为原LLaMA模型上的一个补丁)+需要合并原版LLaMA模型才华使用
T1、直接从网盘下载
推荐模型下载
其他模型下载
T2、在transformers平台下载,
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
使用道具
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
东湖之滨
论坛元老
这个人很懒什么都没写!
楼主热帖
《HarmonyOS开发 - 小凌派-RK2206开发 ...
dotnet 6 为什么网络请求不跟随系统网 ...
大二C#实现酒店管理系统(C端展示、前 ...
VMware虚拟机安装黑群晖7.1
从0到1实现一套CICD流程之CD
当我们在聊「开源大数据调度系统Taier ...
ABP Framework 7.0 RC 新增功能简介 ...
RequestDispatcher具有什么功能呢? ...
MySQL视图
测试大姐提了个bug,为什么你多了个opti ...
标签云
渠道
国产数据库
集成商
AI
运维
CIO
存储
服务器
快速回复
返回顶部
返回列表