卖不甜枣 发表于 2025-3-6 14:20:25

LLaMA-Factory:简单的微调Llama

LLaMA-Factory 简介

   https://img-blog.csdnimg.cn/img_convert/30e405e790715c0e978a7d0e61690afc.png
   LLaMA-Factory 是一个开源项目,它提供了一套全面的工具和脚本,用于微调、提供 LLaMA 模子并对其进行基准测试。LLaMA(大型语言模子适应)是由 Meta AI 开辟的基础语言模子的聚集,在各种自然语言使命中体现出强盛的性能。
   项目地址: https://gitcode.com/gh_mirrors/ll/LLaMA-Factory
   LLaMA-Factory 存储库通过提供以下内容,使 LLaMA 模子入门变得容易:
   

[*]用于数据预处理和分词化的脚本
[*]用于微调 LLaMA 模子的训练管道
[*]用于使用颠末训练的模子生成文本的推理脚本
[*]用于评估模子性能的基准测试工具
[*]用于交互式测试的 Gradio Web UI
   LLaMA-Factory安装步骤

   准备工作

         操纵系统: 支持 Linux 和 macOS,建议使用 Ubuntu 20.04 或更高版本。
      Python 环境: 建议使用 Python 3.8 或更高版本。
      CUDA 支持: 假如使用 GPU 进行训练,确保已安装 CUDA 11.x 或更高版本。
       Git: 用于克隆项目代码。
          详细安装步骤

   步骤 1: 克隆项目代码

   首先,使用 Git 克隆 LLaMA-Factory 项目到当地:
                                 登录后复制                         git clone https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory      

[*]1.
[*]2.
                     步骤 2: 创建虚拟环境

   建议在虚拟环境中安装项目依赖,以制止与其他项目冲突:
                                 登录后复制                         python3 -m venv llama_env
source llama_env/bin/activate      

[*]1.
[*]2.
                     步骤 3: 安装依赖

   使用 pip 安装项目所需的依赖包:
                                 登录后复制                         pip install -r requirements.txt      

[*]1.
                     步骤 4: 设置环境变量

   根据须要设置环境变量,例如 CUDA 路径等。可以在 .env 文件中设置:
                                 登录后复制                         echo "CUDA_HOME=/usr/local/cuda" >> .env      

[*]1.
                     步骤 5: 启动 WebUI

   安装完成后,可以通过以下命令启动 WebUI:
                                 登录后复制                         python train_web.py      

[*]1.
                     启动后,打开欣赏器访问 http://localhost:7860,即可进入 LLaMA-Factory 的 WebUI 界面。
   如何设置 LLaMA-Factory

   要开始使用,您须要使用所需的依赖项设置 Python 环境。建议使用虚拟环境来隔离包。
                                 登录后复制                         #创建并激活虚拟环境
python -m venv llama-env
source llama-env/bin/activate

#安装所需的软件包
pip install -r requirements.txt      

[*]1.
[*]2.
[*]3.
[*]4.
[*]5.
[*]6.
                     LLaMA Factory仓库中的requirements.txt文件指定了须要的Python包,包括PyTorch、Transformers、Datasets等。
   您还须要访问预训练的LLaMA模子权重。权重不公开,但可以向Meta索取用于研究目标。将模子权重放置在llama_hecks目次中。
   LLaMA-Factory的数据准备

   下一步是准备数据集进行微调。LLaMA Factory希望训练数据采用特定的JSON格式:
                                 登录后复制                         [
{
    "instruction": "What is the capital of France?",
    "input": "",
    "output": "Paris is the capital of France."
},
...
]      

[*]1.
[*]2.
[*]3.
[*]4.
[*]5.
[*]6.
[*]7.
[*]8.
                     每个JSON对象代表一个训练示例,此中包罗以下字段:
         指令:使命指令或提示
      输入:使命的附加上下文(可以为空)
      输出:目标完成或相应
          您可以以这种格式准备自己的数据集,也可以使用数据目次中提供的示例数据集之一,如羊驼数据集。
   要标记和处理数据集,请运行:
                                 登录后复制                         python data_preprocess.py \
--data_path data/alpaca_data.json \
--save_path data/alpaca_data_tokenized.json      

[*]1.
[*]2.
[*]3.
                     这将加载JSON数据集,对文本字段进行标记,并将标记后的数据保存到磁盘。使用的标记器是Transformers库中的LlamaTokenizer。
   LLaMA-Factory微调Llama

   准备好数据后,您如今可以使用finetune.py脚本启动微调运行:
                                 登录后复制                         python finetune.py \
--model_name llama-7b \
--data_path data/alpaca_data_tokenized.json \
--output_dir output/llama-7b-alpaca \
--num_train_epochs 3 \
--batch_size 128 \
--learning_rate 2e-5 \
--fp16      

[*]1.
[*]2.
[*]3.
[*]4.
[*]5.
[*]6.
[*]7.
[*]8.
                     关键论点是:
         model_name:要微调的根本LLaMA模子,例如LLaMA-7b
      data_path:标记化数据集的路径
      output_dir:保存微调模子的目次
      num_train_epochs:训练周期数
      batch_size:训练的批量大小
      learning_rate:优化器的学习率
      fp16:使用fp16混合精度来减少内存使用
          该脚本将加载预训练的LLaMA模子,为训练准备数据集,并使用指定的超参数运行微调过程。微调后的模子检查点将保存在output_dir中。
   LLaMA-Factory推理

   一旦你有了一个颠末微调的LLaMA模子,你就可以在给出提示的情况下使用它来生成文本补全。generate.py脚本提供了一个如何加载模子和实行推理的示例:
                                 登录后复制                         python generate.py \
--model_path output/llama-7b-alpaca \
--prompt "What is the capital of France?"      

[*]1.
[*]2.
[*]3.
                     这将从model_path加载微调后的模子,对提供的提示进行标记,并使用模子的generate()方法生成文本补全。您可以自界说生成参数,如max_length、num_beams、temperature等。
   Web UI

   为了进行交互式测试和演示,LLaMA Factory还提供了Gradio web UI。要启动UI,请运行:
                                 登录后复制                         python web_ui.py --model_path output/llama-7b-alpaca      

[*]1.
                     这将启动当地web服务器并在欣赏器中打开UI。您可以输入提示,并实时从微调后的模子生成补全。
   web_UI.py中的web UI代码展示了如何将模子与Gradio集成以构建交互式演示。您可以针对特定用例扩展和自界说UI。
   用LLaMA-Factory进行基准测试

   末了,LLaMA Factory用于在各种评估数据集上对微调模子的性能进行基准测试的脚本。benchmark.py脚本提供了一个示例:
                                 登录后复制                         python benchmark.py \
--model_path output/llama-7b-alpaca \
--benchmark_datasets alpaca,hellaswag      

[*]1.
[*]2.
[*]3.
                     这将加载微调后的模子,并在指定的benchmark_datasets上评估其性能。该脚本陈诉了正确性、狐疑度和F1分数等指标。
   您可以通过实现DatasetBuilder类并将其注册到基准脚本中来添加自己的评估数据集。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页: [1]
查看完整版本: LLaMA-Factory:简单的微调Llama