IT评测·应用市场-qidao123.com
标题:
LLaMA-Factory:简单的微调Llama
[打印本页]
作者:
卖不甜枣
时间:
2025-3-6 14:20
标题:
LLaMA-Factory:简单的微调Llama
LLaMA-Factory 简介
LLaMA-Factory 是一个开源项目,它提供了一套全面的工具和脚本,用于微调、提供 LLaMA 模子并对其进行基准测试。LLaMA(大型语言模子适应)是由 Meta AI 开辟的基础语言模子的聚集,在各种自然语言使命中体现出强盛的性能。
项目地址: https://gitcode.com/gh_mirrors/ll/LLaMA-Factory
LLaMA-Factory 存储库通过提供以下内容,使 LLaMA 模子入门变得容易:
用于数据预处理和分词化的脚本
用于微调 LLaMA 模子的训练管道
用于使用颠末训练的模子生成文本的推理脚本
用于评估模子性能的基准测试工具
用于交互式测试的 Gradio Web UI
LLaMA-Factory安装步骤
准备工作
操纵系统: 支持 Linux 和 macOS,建议使用 Ubuntu 20.04 或更高版本。
Python 环境: 建议使用 Python 3.8 或更高版本。
CUDA 支持: 假如使用 GPU 进行训练,确保已安装 CUDA 11.x 或更高版本。
Git: 用于克隆项目代码。
详细安装步骤
步骤 1: 克隆项目代码
首先,使用 Git 克隆 LLaMA-Factory 项目到当地:
登录后复制
git clone https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
复制代码
1.
2.
步骤 2: 创建虚拟环境
建议在虚拟环境中安装项目依赖,以制止与其他项目冲突:
登录后复制
python3 -m venv llama_env
source llama_env/bin/activate
复制代码
1.
2.
步骤 3: 安装依赖
使用 pip 安装项目所需的依赖包:
登录后复制
pip install -r requirements.txt
复制代码
1.
步骤 4: 设置环境变量
根据须要设置环境变量,例如 CUDA 路径等。可以在 .env 文件中设置:
登录后复制
echo "CUDA_HOME=/usr/local/cuda" >> .env
复制代码
1.
步骤 5: 启动 WebUI
安装完成后,可以通过以下命令启动 WebUI:
登录后复制
python train_web.py
复制代码
1.
启动后,打开欣赏器访问 http://localhost:7860,即可进入 LLaMA-Factory 的 WebUI 界面。
如何设置 LLaMA-Factory
要开始使用,您须要使用所需的依赖项设置 Python 环境。建议使用虚拟环境来隔离包。
登录后复制
#创建并激活虚拟环境
python -m venv llama-env
source llama-env/bin/activate
#安装所需的软件包
pip install -r requirements.txt
复制代码
1.
2.
3.
4.
5.
6.
LLaMA Factory仓库中的requirements.txt文件指定了须要的Python包,包括PyTorch、Transformers、Datasets等。
您还须要访问预训练的LLaMA模子权重。权重不公开,但可以向Meta索取用于研究目标。将模子权重放置在llama_hecks目次中。
LLaMA-Factory的数据准备
下一步是准备数据集进行微调。LLaMA Factory希望训练数据采用特定的JSON格式:
登录后复制
[
{
"instruction": "What is the capital of France?",
"input": "",
"output": "Paris is the capital of France."
},
...
]
复制代码
1.
2.
3.
4.
5.
6.
7.
8.
每个JSON对象代表一个训练示例,此中包罗以下字段:
指令:使命指令或提示
输入:使命的附加上下文(可以为空)
输出:目标完成或相应
您可以以这种格式准备自己的数据集,也可以使用数据目次中提供的示例数据集之一,如羊驼数据集。
要标记和处理数据集,请运行:
登录后复制
python data_preprocess.py \
--data_path data/alpaca_data.json \
--save_path data/alpaca_data_tokenized.json
复制代码
1.
2.
3.
这将加载JSON数据集,对文本字段进行标记,并将标记后的数据保存到磁盘。使用的标记器是Transformers库中的LlamaTokenizer。
LLaMA-Factory微调Llama
准备好数据后,您如今可以使用finetune.py脚本启动微调运行:
登录后复制
python finetune.py \
--model_name llama-7b \
--data_path data/alpaca_data_tokenized.json \
--output_dir output/llama-7b-alpaca \
--num_train_epochs 3 \
--batch_size 128 \
--learning_rate 2e-5 \
--fp16
复制代码
1.
2.
3.
4.
5.
6.
7.
8.
关键论点是:
model_name:要微调的根本LLaMA模子,例如LLaMA-7b
data_path:标记化数据集的路径
output_dir:保存微调模子的目次
num_train_epochs:训练周期数
batch_size:训练的批量大小
learning_rate:优化器的学习率
fp16:使用fp16混合精度来减少内存使用
该脚本将加载预训练的LLaMA模子,为训练准备数据集,并使用指定的超参数运行微调过程。微调后的模子检查点将保存在output_dir中。
LLaMA-Factory推理
一旦你有了一个颠末微调的LLaMA模子,你就可以在给出提示的情况下使用它来生成文本补全。generate.py脚本提供了一个如何加载模子和实行推理的示例:
登录后复制
python generate.py \
--model_path output/llama-7b-alpaca \
--prompt "What is the capital of France?"
复制代码
1.
2.
3.
这将从model_path加载微调后的模子,对提供的提示进行标记,并使用模子的generate()方法生成文本补全。您可以自界说生成参数,如max_length、num_beams、temperature等。
Web UI
为了进行交互式测试和演示,LLaMA Factory还提供了Gradio web UI。要启动UI,请运行:
登录后复制
python web_ui.py --model_path output/llama-7b-alpaca
复制代码
1.
这将启动当地web服务器并在欣赏器中打开UI。您可以输入提示,并实时从微调后的模子生成补全。
web_UI.py中的web UI代码展示了如何将模子与Gradio集成以构建交互式演示。您可以针对特定用例扩展和自界说UI。
用LLaMA-Factory进行基准测试
末了,LLaMA Factory用于在各种评估数据集上对微调模子的性能进行基准测试的脚本。benchmark.py脚本提供了一个示例:
登录后复制
python benchmark.py \
--model_path output/llama-7b-alpaca \
--benchmark_datasets alpaca,hellaswag
复制代码
1.
2.
3.
这将加载微调后的模子,并在指定的benchmark_datasets上评估其性能。该脚本陈诉了正确性、狐疑度和F1分数等指标。
您可以通过实现DatasetBuilder类并将其注册到基准脚本中来添加自己的评估数据集。
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
欢迎光临 IT评测·应用市场-qidao123.com (https://dis.qidao123.com/)
Powered by Discuz! X3.4