LLaMA-Factory:简单的微调Llama

打印 上一主题 下一主题

主题 995|帖子 995|积分 2985

LLaMA-Factory 简介

     

     LLaMA-Factory 是一个开源项目,它提供了一套全面的工具和脚本,用于微调、提供 LLaMA 模子并对其进行基准测试。LLaMA(大型语言模子适应)是由 Meta AI 开辟的基础语言模子的聚集,在各种自然语言使命中体现出强盛的性能。
     项目地址: https://gitcode.com/gh_mirrors/ll/LLaMA-Factory
     LLaMA-Factory 存储库通过提供以下内容,使 LLaMA 模子入门变得容易:
     

  • 用于数据预处理和分词化的脚本
  • 用于微调 LLaMA 模子的训练管道
  • 用于使用颠末训练的模子生成文本的推理脚本
  • 用于评估模子性能的基准测试工具
  • 用于交互式测试的 Gradio Web UI
     LLaMA-Factory安装步骤

     准备工作

           操纵系统: 支持 Linux 和 macOS,建议使用 Ubuntu 20.04 或更高版本。
      Python 环境: 建议使用 Python 3.8 或更高版本。
      CUDA 支持: 假如使用 GPU 进行训练,确保已安装 CUDA 11.x 或更高版本。
       Git: 用于克隆项目代码。
          详细安装步骤

     步骤 1: 克隆项目代码

     首先,使用 Git 克隆 LLaMA-Factory 项目到当地:
                                   登录后复制                        
  1. git clone https://github.com/hiyouga/LLaMA-Factory.git
  2. cd LLaMA-Factory
复制代码
      

  • 1.
  • 2.
                       步骤 2: 创建虚拟环境

     建议在虚拟环境中安装项目依赖,以制止与其他项目冲突:
                                   登录后复制                        
  1. python3 -m venv llama_env
  2. source llama_env/bin/activate
复制代码
      

  • 1.
  • 2.
                       步骤 3: 安装依赖

     使用 pip 安装项目所需的依赖包:
                                   登录后复制                        
  1. pip install -r requirements.txt
复制代码
      

  • 1.
                       步骤 4: 设置环境变量

     根据须要设置环境变量,例如 CUDA 路径等。可以在 .env 文件中设置:
                                   登录后复制                        
  1. echo "CUDA_HOME=/usr/local/cuda" >> .env
复制代码
      

  • 1.
                       步骤 5: 启动 WebUI

     安装完成后,可以通过以下命令启动 WebUI:
                                   登录后复制                        
  1. python train_web.py
复制代码
      

  • 1.
                       启动后,打开欣赏器访问 http://localhost:7860,即可进入 LLaMA-Factory 的 WebUI 界面。
     如何设置 LLaMA-Factory

     要开始使用,您须要使用所需的依赖项设置 Python 环境。建议使用虚拟环境来隔离包。
                                   登录后复制                        
  1. #创建并激活虚拟环境
  2. python -m venv llama-env
  3. source llama-env/bin/activate
  4. #安装所需的软件包
  5. pip install -r requirements.txt
复制代码
      

  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
                       LLaMA Factory仓库中的requirements.txt文件指定了须要的Python包,包括PyTorch、Transformers、Datasets等。
     您还须要访问预训练的LLaMA模子权重。权重不公开,但可以向Meta索取用于研究目标。将模子权重放置在llama_hecks目次中。
     LLaMA-Factory的数据准备

     下一步是准备数据集进行微调。LLaMA Factory希望训练数据采用特定的JSON格式:
                                   登录后复制                        
  1. [
  2.   {
  3.     "instruction": "What is the capital of France?",
  4.     "input": "",
  5.     "output": "Paris is the capital of France."
  6.   },
  7.   ...
  8. ]
复制代码
      

  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
  • 7.
  • 8.
                       每个JSON对象代表一个训练示例,此中包罗以下字段:
           指令:使命指令或提示
      输入:使命的附加上下文(可以为空)
      输出:目标完成或相应
          您可以以这种格式准备自己的数据集,也可以使用数据目次中提供的示例数据集之一,如羊驼数据集。
     要标记和处理数据集,请运行:
                                   登录后复制                        
  1. python data_preprocess.py \
  2.   --data_path data/alpaca_data.json \
  3.   --save_path data/alpaca_data_tokenized.json
复制代码
      

  • 1.
  • 2.
  • 3.
                       这将加载JSON数据集,对文本字段进行标记,并将标记后的数据保存到磁盘。使用的标记器是Transformers库中的LlamaTokenizer。
     LLaMA-Factory微调Llama

     准备好数据后,您如今可以使用finetune.py脚本启动微调运行:
                                   登录后复制                        
  1. python finetune.py \
  2.   --model_name llama-7b \
  3.   --data_path data/alpaca_data_tokenized.json \
  4.   --output_dir output/llama-7b-alpaca \
  5.   --num_train_epochs 3 \
  6.   --batch_size 128 \
  7.   --learning_rate 2e-5 \
  8.   --fp16
复制代码
      

  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
  • 7.
  • 8.
                       关键论点是:
           model_name:要微调的根本LLaMA模子,例如LLaMA-7b
      data_path:标记化数据集的路径
      output_dir:保存微调模子的目次
      num_train_epochs:训练周期数
      batch_size:训练的批量大小
      learning_rate:优化器的学习率
      fp16:使用fp16混合精度来减少内存使用
          该脚本将加载预训练的LLaMA模子,为训练准备数据集,并使用指定的超参数运行微调过程。微调后的模子检查点将保存在output_dir中。
     LLaMA-Factory推理

     一旦你有了一个颠末微调的LLaMA模子,你就可以在给出提示的情况下使用它来生成文本补全。generate.py脚本提供了一个如何加载模子和实行推理的示例:
                                   登录后复制                        
  1. python generate.py \
  2.   --model_path output/llama-7b-alpaca \
  3.   --prompt "What is the capital of France?"
复制代码
      

  • 1.
  • 2.
  • 3.
                       这将从model_path加载微调后的模子,对提供的提示进行标记,并使用模子的generate()方法生成文本补全。您可以自界说生成参数,如max_length、num_beams、temperature等。
     Web UI

     为了进行交互式测试和演示,LLaMA Factory还提供了Gradio web UI。要启动UI,请运行:
                                   登录后复制                        
  1. python web_ui.py --model_path output/llama-7b-alpaca
复制代码
      

  • 1.
                       这将启动当地web服务器并在欣赏器中打开UI。您可以输入提示,并实时从微调后的模子生成补全。
     web_UI.py中的web UI代码展示了如何将模子与Gradio集成以构建交互式演示。您可以针对特定用例扩展和自界说UI。
     用LLaMA-Factory进行基准测试

     末了,LLaMA Factory用于在各种评估数据集上对微调模子的性能进行基准测试的脚本。benchmark.py脚本提供了一个示例:
                                   登录后复制                        
  1. python benchmark.py \
  2.   --model_path output/llama-7b-alpaca \
  3.   --benchmark_datasets alpaca,hellaswag
复制代码
      

  • 1.
  • 2.
  • 3.
                       这将加载微调后的模子,并在指定的benchmark_datasets上评估其性能。该脚本陈诉了正确性、狐疑度和F1分数等指标。
     您可以通过实现DatasetBuilder类并将其注册到基准脚本中来添加自己的评估数据集。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

卖不甜枣

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表