11、LLaMA-Factory自定义数据集微调

打印 上一主题 下一主题

主题 510|帖子 510|积分 1530

1、数据集定义

  针对实际的微调需求,使用专门针对业务垂直领域的私有数据进行大模型微调才是我们必要做的。因此,我们必要探讨怎样在LLaMA-Factory项目及上述创建的微调流程中引入自定义数据集进行微调。**对于LLaMA-Factory项目,目前仅支持两种格式的数据集:alpaca 和 sharegpt。
1.1 alpaca

alpaca 格式的数据集按照以下方式组织:
  1. [
  2.   {
  3.     "instruction": "用户指令(必填)",
  4.     "input": "用户输入(选填)",
  5.     "output": "模型回答(必填)",
  6.     "system": "系统提示词(选填)",
  7.     "history": [
  8.       ["第一轮指令(选填)", "第一轮回答(选填)"],
  9.       ["第二轮指令(选填)", "第二轮回答(选填)"]
  10.     ]
  11.   }
  12. ]
复制代码
  比较常见的alpaca_gpt4_data_zh.json就是标准的alpaca格式,我们自己在界面可以或许顺遂加载的原因在于,所有的数据文件,在LLaMA-Factory项目中均使用dataset_info.json进行定义和管理,其存储位置在LLaMA-Factory/data目录下:
   
    在这个文件中,定义一个数据集的格式如下:
  1. "数据集名称": {
  2.   "hf_hub_url": "Hugging Face 的数据集仓库地址(若指定,则忽略 script_url 和 file_name)",
  3.   "ms_hub_url": "ModelScope 的数据集仓库地址(若指定,则忽略 script_url 和 file_name)",
  4.   "script_url": "包含数据加载脚本的本地文件夹名称(若指定,则忽略 file_name)",
  5.   "file_name": "该目录下数据集文件的名称(若上述参数未指定,则此项必需)",
  6.   "file_sha1": "数据集文件的 SHA-1 哈希值(可选,留空不影响训练)",
  7.   "subset": "数据集子集的名称(可选,默认:None)",
  8.   "folder": "Hugging Face 仓库的文件夹名称(可选,默认:None)",
  9.   "ranking": "是否为偏好数据集(可选,默认:False)",
  10.   "formatting": "数据集格式(可选,默认:alpaca,可以为 alpaca 或 sharegpt)",
  11.   "columns(可选)": {
  12.     "prompt": "数据集代表提示词的表头名称(默认:instruction)",
  13.     "query": "数据集代表请求的表头名称(默认:input)",
  14.     "response": "数据集代表回答的表头名称(默认:output)",
  15.     "history": "数据集代表历史对话的表头名称(默认:None)",
  16.     "messages": "数据集代表消息列表的表头名称(默认:conversations)",
  17.     "system": "数据集代表系统提示的表头名称(默认:None)",
  18.     "tools": "数据集代表工具描述的表头名称(默认:None)"
  19.   },
  20.   "tags(可选,用于 sharegpt 格式)": {
  21.     "role_tag": "消息中代表发送者身份的键名(默认:from)",
  22.     "content_tag": "消息中代表文本内容的键名(默认:value)",
  23.     "user_tag": "消息中代表用户的 role_tag(默认:human)",
  24.     "assistant_tag": "消息中代表助手的 role_tag(默认:gpt)",
  25.     "observation_tag": "消息中代表工具返回结果的 role_tag(默认:observation)",
  26.     "function_tag": "消息中代表工具调用的 role_tag(默认:function_call)",
  27.     "system_tag": "消息中代表系统提示的 role_tag(默认:system,会覆盖 system 列)"
  28.   }
  29. }
复制代码
  可以看到,上述的定义格式还是非常复杂的,但在使用过程中,我们并不必要全部去填写,此中比较关键的部分,且必须定义的参数是:
  1.   "数据集名称": {
  2.     "formatting": "sharegpt",                 # 数据集格式(可选,默认:alpaca,可以为 alpaca 或 sharegpt)
  3.     "file_name": " ",                         # 具体的文件名称
  4.   "columns": {
  5.     ...
  6.     ...
  7.     ...
  8.   },
  9.   "tags": {
  10.     ...
  11.     ...
  12.     ...
  13.   }
  14. },
复制代码
  所以对于alpaca格式的数据,dataset_info.json 中的 columns 应为:
  1. "数据集名称": {
  2.   "columns": {
  3.     "prompt": "instruction",
  4.     "query": "input",
  5.     "response": "output",
  6.     "system": "system",
  7.     "history": "history"
  8.   }
  9. }
复制代码
1.2 sharegpt

  反观别的一种支持的数据格式:sharegpt 格式,其标准情势如下:
  1. [
  2.   {
  3.     "conversations": [
  4.       {
  5.         "from": "human",
  6.         "value": "用户指令"
  7.       },
  8.       {
  9.         "from": "gpt",
  10.         "value": "模型回答"
  11.       }
  12.     ],
  13.     "system": "系统提示词(选填)",
  14.     "tools": "工具描述(选填)"
  15.   }
  16. ]
复制代码
  关于sharegpt 格式,在dataset_info.json中的定义情势就是如下:
  1. "数据集名称": {
  2.   "columns": {
  3.     "messages": "conversations",
  4.     "system": "system",
  5.     "tools": "tools"
  6.   },
  7.   "tags": {
  8.     "role_tag": "from",
  9.     "content_tag": "value",
  10.     "user_tag": "human",
  11.     "assistant_tag": "gpt"
  12.   }
  13. }
复制代码
1.3 数据准备

  接下来,我们就来演示一下,应该怎样在微调中参加自己的数据集。数据我们使用大模型自动天生100个问答对,这个可以自己想办法执行,我用的是傲慢与偏见小说的TXT通报给一个在线大模型,让他给天生100个问答对,然后生存到CSV中,我们读入数据查看下
  1. import pandas as pd
  2. data = pd.read_csv("aoman.csv",encoding='GBK')
  3. data
复制代码

定一个函数将其转换为sharegpt 必要的格式
  1. import json
  2. def export_modified_conversations_to_json(df, num_records, file_name, col_list):
  3.     """
  4.     将对话数据以修改后的格式导出到 JSON 文件。
  5.     :param df: 包含对话数据的 DataFrame。
  6.     :param num_records: 要导出的记录数。
  7.     :param file_name: 输出 JSON 文件的名称。
  8.     :col_list:数据列
  9.     """
  10.     output = []
  11.     # 遍历 DataFrame 并构建修改后所需的数据结构
  12.     for i, row in df.head(num_records).iterrows():
  13.         conversation = [
  14.             {"from": "human", "value": row[col_list[0]]},
  15.             {"from": "gpt", "value": row[col_list[1]]}
  16.         ]
  17.         output.append({
  18.             "conversations": conversation,
  19.             "system": " ",  # 系统提示词,可选填
  20.             "tools": " "    # 工具描述,可选填
  21.         })
  22.     # 将列表转换为 JSON 格式并保存为文件
  23.     with open(file_name, 'w', encoding='utf-8') as file:
  24.         json.dump(output, file, ensure_ascii=False, indent=2)
  25. # 注意:此代码假设df DataFrame已经存在,并且包含正确的列名(question,answer)。
  26. # 在实际使用中,请确保df变量已正确定义,并包含所需数据。
复制代码
  1. export_modified_conversations_to_json(data, data.shape[0], './Pride_and_Prejudice.json',data.columns[1:3])
复制代码

  然后,必要执行的操作是,把该数据集移动到LLaMA-Factory/data中,并在dataset_info.json中指定如下内容:
  1.   "medical_treatment": {
  2.     "formatting": "sharegpt",
  3.     "file_name": "medical_treatment.json",
  4.     "columns": {
  5.       "messages": "conversations",
  6.       "system": "system",
  7.       "tools": "tools"
  8.     },
  9.     "tags": {
  10.       "role_tag": "from",
  11.       "content_tag": "value",
  12.       "user_tag": "human",
  13.       "assistant_tag": "gpt"
  14.     }
  15. },
复制代码
  
  2、微调

2.1 测试

我们先将没有微调的模型导入,找一个问题测试一下,看看答案,微调完后进行对比

2.2 数据查看

当我们将数据文件配置好后,就可以在启动的界面找到相应的文件,然后查看其数据格式,

2.3 开始微调

查看显存占用,由于数据集量只有100条,所以显存占用比较小

微调过程,可以发现loss是不停在下降,微调用了10个epoch

3、预测

3.1 预测指标

选择刚才的数据进行预测,发现评估指标很差,主要是数据集太少,而且练习轮数也比较低,真实使命必要大量的数据集和练习迭代才气到达比较好的效果

预测使命的评估结果,使用了 BLEU 和 ROUGE 这两种常用的机器翻译评估指标,以及其他一些性能指标。以下是每个指标的解析:
BLEU (BiLingual Evaluation Understudy)


  • predict_bleu-4: 2.306378

    • 这表明模型天生的翻译文本与参考翻译之间的相似度为 23.06%。
    • BLEU 分数越高,翻译质量越好。
    • BLEU 分数通常在 0 到 100 之间,分数越高越好。
      ROUGE (Recall-Oriented Understudy for Goals)

  • predict_rouge-1: 19.632283

    • 这表明模型天生的翻译文本与参考翻译之间的匹配度(召回率)为 19.63%。
    • ROUGE-1 评估模型天生的单词与参考翻译中单词的匹配环境。

  • predict_rouge-2: 3.859137

    • 这表明模型天生的翻译文本与参考翻译之间的匹配度(F1 分数)为 3.86%。
    • ROUGE-2 评估模型天生的短语与参考翻译中短语的匹配环境。

  • predict_rouge-l: 13.356055

    • 这表明模型天生的翻译文本与参考翻译之间的匹配度(F1 分数)为 13.36%。
    • ROUGE-L 评估模型天生的句子与参考翻译中句子的匹配环境。
      其他性能指标

  • predict_model_preparation_time: 0.004 秒

    • 这表明模型准备时间(比方加载模型权重)为 0.004 秒。

  • predict_runtime: 215.3883 秒

    • 这表明模型天生整个翻译文本所需的时间为 215.3883 秒。

  • predict_samples_per_second: 0.464 个样本/秒

    • 这表明模型每秒天生的样本数为 0.464 个样本。

  • predict_steps_per_second: 0.232 步/秒

    • 这表明模型每秒进行的计算步骤数为 0.232 步。
      总结
      根据这些评估结果,我们可以看出模型的翻译质量另有提升空间,特殊是在 BLEU 和 ROUGE 分数方面。模型的天生速度也相对较慢。您可以考虑实验一些改进策略,比方:

  • 使用更大的模型: 更大的模型通常可以天生更高质量的翻译。
  • 使用不同的练习数据: 使用更高质量或更多样化的练习数据可以进步模型的性能。
  • 使用不同的优化算法: 不同的优化算法大概会对模型的性能产生不同的影响。
    希望这些信息能帮助您更好地理解这段代码!
3.2 预测结果

预测的文件会模型存储在save文件夹下相应的模型文件中

3.3 预测效果

输入微调前同样的问题来对比下


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

祗疼妳一个

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表