LLaMA-Factory 微调LLaMA3

打印 上一主题 下一主题

主题 1946|帖子 1946|积分 5838

LoRA先容

LoRA(Low-Rank Adaptation)是一种用于大模型微调的技术, 通过引入低秩矩阵来减少微调时的参数目。在预练习的模型中, LoRA通过添加两个小矩阵B和A来近似原始的大矩阵ΔW,从而减 少需要更新的参数数目。具体来说,LoRA通过将全参微调的增量 参数矩阵ΔW表示为两个参数目更小的矩阵B和A的低秩近似来实 现:
• [ W_0 + \Delta W = W_0 + BA ] • 其中,B和A的秩远小于原始矩阵的秩,从而大大减少了需要更新 的参数数目。
LLaMA-Factory 框架

首先需要通过vscode连接远程服务器哦
假如是租赁的AutoDL服务器,肯定要将模型下载到数据盘。
   git clone https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e .
  准备练习数据

练习数据: fintech.json identity.json 将练习数据放在 LLaMA-Factory/data/fintech.json
并且修改数据注册文件:LLaMA-Factory/data/dataset_info.json
  1. "fintech": {
  2. "file_name": "fintech.json",
  3. "columns": {
  4. "prompt": "instruction",
  5. "query": "input",
  6. "response": "output",
  7. "history": "history"
  8. }
  9. }
复制代码
启动 Web UI

   cd LLaMA-Factory
  llamafactory-cli webui
  vscode自带端口转发,不需要举行内网穿透了。
肯定要在LLaMA-Factory 目录下启动。

模型准备

   pip install modelscop #安装modelscope平台
  

sdk方式下载模型,同时可以检察模型整体的大小和权重。


模型微调,微调 Llama-3.2-1B-Instruct 模型





免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

正序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

莱莱

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表