【llama_factory】qwen2_vl训练与批量推理

打印 上一主题 下一主题

主题 1994|帖子 1994|积分 5982

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?立即注册

x
训练llama factory设置文件

文件:examples/train_lora/qwen2vl_lora_sft.yaml
  1. ### model
  2. model_name_or_path: qwen2_vl/model_72b
  3. trust_remote_code: true
  4. ### method
  5. stage: sft
  6. do_train: true
  7. finetuning_type: lora
  8. lora_target: all
  9. ### dataset
  10. dataset: car_item  # video: mllm_video_demo
  11. template: qwen2_vl
  12. cutoff_len: 2048
  13. max_samples: 1000
  14. overwrite_cache: true
  15. preprocessing_num_workers: 16
  16. ### output
  17. output_dir: saves/qwen2_vl-72b/lora/sft
  18. logging_steps: 10
  19. save_steps: 500
  20. plot_loss: true
  21. overwrite_output_dir: true
  22. ### train
  23. per_device_train_batch_size: 1
  24. gradient_accumulation_steps: 1
  25. learning_rate: 1.0e-4
  26. num_train_epochs: 25.0
  27. lr_scheduler_type: cosine
  28. warmup_ratio: 0.1
  29. bf16: True
  30. ddp_timeout: 180000000
  31. deepspeed: examples/deepspeed/ds_z3_config.json
  32. #有坑,默认的配置文件没有设置deepspeed参数,会每张显卡都并行加载一个72B模型导致显卡OOM,经过查阅文献设置deepspeed分布式训练参数,有五种,训练大模型设置显存最低的,训练7b可以设置为ds_z0_config.json
  33. #ds_z0_config.json          ds_z2_config.json          ds_z2_offload_config.json  ds_z3_config.json          ds_z3_offload_config.json  
  34. ### eval
  35. val_size: 0.1
  36. per_device_eval_batch_size: 0
  37. eval_strategy: steps
  38. eval_steps: 500
复制代码
  1. llamafactory-cli train  examples/train_lora/qwen2vl_lora_sft.yaml
复制代码
批量推理

文件:examples/train_lora/qwen2vl_lora_sft.yaml
  1. ### model
  2. model_name_or_path: qwen2_vl/model_7b
  3. trust_remote_code: true
  4. # method
  5. stage: sft
  6. do_train: false
  7. do_predict: true
  8. predict_with_generate: true
  9. finetuning_type: full
  10. # dataset
  11. eval_dataset: car_item  #修改为测试集
  12. template: qwen2_vl
  13. cutoff_len: 2048
  14. max_samples: 200
  15. overwrite_cache: true
  16. preprocessing_num_workers: 16
  17. # output
  18. output_dir: saves/qwen2_vl-7b/lora/sft-infer-1 #修改为保存地址
  19. logging_steps: 1
  20. overwrite_output_dir: true
  21. # eval
  22. per_device_eval_batch_size: 4
  23. # generation
  24. max_new_tokens: 128
  25. temperature: 0.1
  26. top_k: 1
复制代码
  1. ```bash
  2. llamafactory-cli train  examples/train_lora/qwen2vl_lora_sft.yaml
复制代码
  1. # 总结
  2. 总的来说,训练时显存不足需要设置分布式训练方式,deepspeed。
  3. 推理时,设置eval_dataset eval相关参数。
  4. 另外数据集要进行预处理,搞成标准llama处理格式,加载到data/dataset_info.json中
  5. ```bash
  6. {
  7.   "identity": {
  8.     "file_name": "identity.json"
  9.   },
  10.   "alpaca_en_demo": {
  11.     "file_name": "alpaca_en_demo.json"
  12.   },
  13.   "alpaca_zh_demo": {
  14.     "file_name": "alpaca_zh_demo.json"
  15.   },
  16.   "glaive_toolcall_en_demo": {
  17.     "file_name": "glaive_toolcall_en_demo.json",
  18.     "formatting": "sharegpt",
  19.     "columns": {
  20.       "messages": "conversations",
  21.       "tools": "tools"
  22.     }
  23.   },
  24.   "glaive_toolcall_zh_demo": {
  25.     "file_name": "glaive_toolcall_zh_demo.json",
  26.     "formatting": "sharegpt",
  27.     "columns": {
  28.       "messages": "conversations",
  29.       "tools": "tools"
  30.     }
  31.   },
  32.    "car_item": {
  33.         "file_name": "car_item/train.json",
  34.         "columns": {
  35.           "images": "image",
  36.           "prompt": "instruction",
  37.           "query": "input",
  38.           "response": "output"
  39.         }
  40.   },
  41.   "mllm_demo": {
  42.     "file_name": "mllm_demo.json",
  43.     "formatting": "sharegpt",
  44.     "columns": {
  45.       "messages": "messages",
  46.       "images": "images"
  47.     },
  48.     "tags": {
  49.       "role_tag": "role",
  50.       "content_tag": "content",
  51.       "user_tag": "user",
  52.       "assistant_tag": "assistant"
  53.     }
  54.   },
  55.   "mllm_video_demo": {
  56.     "file_name": "mllm_video_demo.json",
  57.     "formatting": "sharegpt",
  58.     "columns": {
  59.       "messages": "messages",
  60.       "videos": "videos"
  61.     },
  62.     "tags": {
  63.       "role_tag": "role",
  64.       "content_tag": "content",
  65.       "user_tag": "user",
  66.       "assistant_tag": "assistant"
  67.     }
  68.   },
  69.   "alpaca_en": {
  70.     "hf_hub_url": "llamafactory/alpaca_en",
  71.     "ms_hub_url": "llamafactory/alpaca_en",
  72.     "om_hub_url": "HaM/alpaca_en"
  73.   },
  74.   "alpaca_zh": {
  75.     "hf_hub_url": "llamafactory/alpaca_zh",
  76.     "ms_hub_url": "llamafactory/alpaca_zh"
  77.   },
  78.   "alpaca_gpt4_en": {
  79.     "hf_hub_url": "llamafactory/alpaca_gpt4_en",
  80.     "ms_hub_url": "llamafactory/alpaca_gpt4_en"
  81.   },
  82.   "alpaca_gpt4_zh": {
  83.     "hf_hub_url": "llamafactory/alpaca_gpt4_zh",
  84.     "ms_hub_url": "llamafactory/alpaca_gpt4_zh",
  85.     "om_hub_url": "State_Cloud/alpaca-gpt4-data-zh"
  86.   },
  87.   "glaive_toolcall_en": {
  88.     "hf_hub_url": "llamafactory/glaive_toolcall_en",
  89.     "formatting": "sharegpt",
  90.     "columns": {
  91.       "messages": "conversations",
  92.       "tools": "tools"
  93.     }
  94.   },
  95.   "glaive_toolcall_zh": {
  96.     "hf_hub_url": "llamafactory/glaive_toolcall_zh",
  97.     "formatting": "sharegpt",
  98.     "columns": {
  99.       "messages": "conversations",
  100.       "tools": "tools"
  101.     }
  102.   },
  103.   "lima": {
  104.     "hf_hub_url": "llamafactory/lima",
  105.     "formatting": "sharegpt"
  106.   },
  107.   "guanaco": {
  108.     "hf_hub_url": "JosephusCheung/GuanacoDataset",
  109.     "ms_hub_url": "AI-ModelScope/GuanacoDataset"
  110.   },
  111.   "belle_2m": {
  112.     "hf_hub_url": "BelleGroup/train_2M_CN",
  113.     "ms_hub_url": "AI-ModelScope/train_2M_CN"
  114.   },
  115.   "belle_1m": {
  116.     "hf_hub_url": "BelleGroup/train_1M_CN",
  117.     "ms_hub_url": "AI-ModelScope/train_1M_CN"
  118.   },
  119.   "belle_0.5m": {
  120.     "hf_hub_url": "BelleGroup/train_0.5M_CN",
  121.     "ms_hub_url": "AI-ModelScope/train_0.5M_CN"
  122.   },
  123.   "belle_dialog": {
  124.     "hf_hub_url": "BelleGroup/generated_chat_0.4M",
  125.     "ms_hub_url": "AI-ModelScope/generated_chat_0.4M"
  126.   },
  127.   "belle_math": {
  128.     "hf_hub_url": "BelleGroup/school_math_0.25M",
  129.     "ms_hub_url": "AI-ModelScope/school_math_0.25M"
  130.   },
  131.   "belle_multiturn": {
  132.     "script_url": "belle_multiturn",
  133.     "formatting": "sharegpt"
  134.   },
  135.   "ultra_chat": {
  136.     "script_url": "ultra_chat",
  137.     "formatting": "sharegpt"
  138.   },
  139.   "open_platypus": {
  140.     "hf_hub_url": "garage-bAInd/Open-Platypus",
  141.     "ms_hub_url": "AI-ModelScope/Open-Platypus"
  142.   },
  143.   "codealpaca": {
  144.     "hf_hub_url": "sahil2801/CodeAlpaca-20k",
  145.     "ms_hub_url": "AI-ModelScope/CodeAlpaca-20k"
  146.   },
  147.   "alpaca_cot": {
  148.     "hf_hub_url": "QingyiSi/Alpaca-CoT",
  149.     "ms_hub_url": "AI-ModelScope/Alpaca-CoT"
  150.   },
  151.   "openorca": {
  152.     "hf_hub_url": "Open-Orca/OpenOrca",
  153.     "ms_hub_url": "AI-ModelScope/OpenOrca",
  154.     "columns": {
  155.       "prompt": "question",
  156.       "response": "response",
  157.       "system": "system_prompt"
  158.     }
  159.   },
  160.   "slimorca": {
  161.     "hf_hub_url": "Open-Orca/SlimOrca",
  162.     "formatting": "sharegpt"
  163.   },
  164.   "mathinstruct": {
  165.     "hf_hub_url": "TIGER-Lab/MathInstruct",
  166.     "ms_hub_url": "AI-ModelScope/MathInstruct",
  167.     "columns": {
  168.       "prompt": "instruction",
  169.       "response": "output"
  170.     }
  171.   },
  172.   "firefly": {
  173.     "hf_hub_url": "YeungNLP/firefly-train-1.1M",
  174.     "columns": {
  175.       "prompt": "input",
  176.       "response": "target"
  177.     }
  178.   },
  179.   "wikiqa": {
  180.     "hf_hub_url": "wiki_qa",
  181.     "columns": {
  182.       "prompt": "question",
  183.       "response": "answer"
  184.     }
  185.   },
  186.   "webqa": {
  187.     "hf_hub_url": "suolyer/webqa",
  188.     "ms_hub_url": "AI-ModelScope/webqa",
  189.     "columns": {
  190.       "prompt": "input",
  191.       "response": "output"
  192.     }
  193.   },
  194.   "webnovel": {
  195.     "hf_hub_url": "zxbsmk/webnovel_cn",
  196.     "ms_hub_url": "AI-ModelScope/webnovel_cn"
  197.   },
  198.   "nectar_sft": {
  199.     "hf_hub_url": "AstraMindAI/SFT-Nectar",
  200.     "ms_hub_url": "AI-ModelScope/SFT-Nectar"
  201.   },
  202.   "deepctrl": {
  203.     "ms_hub_url": "deepctrl/deepctrl-sft-data"
  204.   },
  205.   "adgen_train": {
  206.     "hf_hub_url": "HasturOfficial/adgen",
  207.     "ms_hub_url": "AI-ModelScope/adgen",
  208.     "split": "train",
  209.     "columns": {
  210.       "prompt": "content",
  211.       "response": "summary"
  212.     }
  213.   },
  214.   "adgen_eval": {
  215.     "hf_hub_url": "HasturOfficial/adgen",
  216.     "ms_hub_url": "AI-ModelScope/adgen",
  217.     "split": "validation",
  218.     "columns": {
  219.       "prompt": "content",
  220.       "response": "summary"
  221.     }
  222.   },
  223.   "sharegpt_hyper": {
  224.     "hf_hub_url": "totally-not-an-llm/sharegpt-hyperfiltered-3k",
  225.     "formatting": "sharegpt"
  226.   },
  227.   "sharegpt4": {
  228.     "hf_hub_url": "shibing624/sharegpt_gpt4",
  229.     "ms_hub_url": "AI-ModelScope/sharegpt_gpt4",
  230.     "formatting": "sharegpt"
  231.   },
  232.   "ultrachat_200k": {
  233.     "hf_hub_url": "HuggingFaceH4/ultrachat_200k",
  234.     "ms_hub_url": "AI-ModelScope/ultrachat_200k",
  235.     "formatting": "sharegpt",
  236.     "columns": {
  237.       "messages": "messages"
  238.     },
  239.     "tags": {
  240.       "role_tag": "role",
  241.       "content_tag": "content",
  242.       "user_tag": "user",
  243.       "assistant_tag": "assistant"
  244.     }
  245.   },
  246.   "agent_instruct": {
  247.     "hf_hub_url": "THUDM/AgentInstruct",
  248.     "ms_hub_url": "ZhipuAI/AgentInstruct",
  249.     "formatting": "sharegpt"
  250.   },
  251.   "lmsys_chat": {
  252.     "hf_hub_url": "lmsys/lmsys-chat-1m",
  253.     "ms_hub_url": "AI-ModelScope/lmsys-chat-1m",
  254.     "formatting": "sharegpt",
  255.     "columns": {
  256.       "messages": "conversation"
  257.     },
  258.     "tags": {
  259.       "role_tag": "role",
  260.       "content_tag": "content",
  261.       "user_tag": "human",
  262.       "assistant_tag": "assistant"
  263.     }
  264.   },
  265.   "evol_instruct": {
  266.     "hf_hub_url": "WizardLM/WizardLM_evol_instruct_V2_196k",
  267.     "ms_hub_url": "AI-ModelScope/WizardLM_evol_instruct_V2_196k",
  268.     "formatting": "sharegpt"
  269.   },
  270.   "glaive_toolcall_100k": {
  271.     "hf_hub_url": "hiyouga/glaive-function-calling-v2-sharegpt",
  272.     "formatting": "sharegpt",
  273.     "columns": {
  274.       "messages": "conversations",
  275.       "tools": "tools"
  276.     }
  277.   },
  278.   "cosmopedia": {
  279.     "hf_hub_url": "HuggingFaceTB/cosmopedia",
  280.     "columns": {
  281.       "prompt": "prompt",
  282.       "response": "text"
  283.     }
  284.   },
  285.   "stem_zh": {
  286.     "hf_hub_url": "hfl/stem_zh_instruction"
  287.   },
  288.   "ruozhiba_gpt4": {
  289.     "hf_hub_url": "hfl/ruozhiba_gpt4_turbo"
  290.   },
  291.   "neo_sft": {
  292.     "hf_hub_url": "m-a-p/neo_sft_phase2",
  293.     "formatting": "sharegpt"
  294.   },
  295.   "magpie_pro_300k": {
  296.     "hf_hub_url": "Magpie-Align/Magpie-Pro-300K-Filtered",
  297.     "formatting": "sharegpt"
  298.   },
  299.   "magpie_ultra": {
  300.     "hf_hub_url": "argilla/magpie-ultra-v0.1",
  301.     "columns": {
  302.       "prompt": "instruction",
  303.       "response": "response"
  304.     }
  305.   },
  306.   "web_instruct": {
  307.     "hf_hub_url": "TIGER-Lab/WebInstructSub",
  308.     "columns": {
  309.       "prompt": "question",
  310.       "response": "answer"
  311.     }
  312.   },
  313.   "openo1_sft": {
  314.     "hf_hub_url": "llamafactory/OpenO1-SFT",
  315.     "ms_hub_url": "llamafactory/OpenO1-SFT",
  316.     "columns": {
  317.       "prompt": "prompt",
  318.       "response": "response"
  319.     }
  320.   },
  321.   "llava_1k_en": {
  322.     "hf_hub_url": "BUAADreamer/llava-en-zh-2k",
  323.     "subset": "en",
  324.     "formatting": "sharegpt",
  325.     "columns": {
  326.       "messages": "messages",
  327.       "images": "images"
  328.     },
  329.     "tags": {
  330.       "role_tag": "role",
  331.       "content_tag": "content",
  332.       "user_tag": "user",
  333.       "assistant_tag": "assistant"
  334.     }
  335.   },
  336.   "llava_1k_zh": {
  337.     "hf_hub_url": "BUAADreamer/llava-en-zh-2k",
  338.     "subset": "zh",
  339.     "formatting": "sharegpt",
  340.     "columns": {
  341.       "messages": "messages",
  342.       "images": "images"
  343.     },
  344.     "tags": {
  345.       "role_tag": "role",
  346.       "content_tag": "content",
  347.       "user_tag": "user",
  348.       "assistant_tag": "assistant"
  349.     }
  350.   },
  351.   "llava_150k_en": {
  352.     "hf_hub_url": "BUAADreamer/llava-en-zh-300k",
  353.     "subset": "en",
  354.     "formatting": "sharegpt",
  355.     "columns": {
  356.       "messages": "messages",
  357.       "images": "images"
  358.     },
  359.     "tags": {
  360.       "role_tag": "role",
  361.       "content_tag": "content",
  362.       "user_tag": "user",
  363.       "assistant_tag": "assistant"
  364.     }
  365.   },
  366.   "llava_150k_zh": {
  367.     "hf_hub_url": "BUAADreamer/llava-en-zh-300k",
  368.     "subset": "zh",
  369.     "formatting": "sharegpt",
  370.     "columns": {
  371.       "messages": "messages",
  372.       "images": "images"
  373.     },
  374.     "tags": {
  375.       "role_tag": "role",
  376.       "content_tag": "content",
  377.       "user_tag": "user",
  378.       "assistant_tag": "assistant"
  379.     }
  380.   },
  381.   "pokemon_cap": {
  382.     "hf_hub_url": "llamafactory/pokemon-gpt4o-captions",
  383.     "formatting": "sharegpt",
  384.     "columns": {
  385.       "messages": "conversations",
  386.       "images": "images"
  387.     }
  388.   },
  389.   "mllm_pt_demo": {
  390.     "hf_hub_url": "BUAADreamer/mllm_pt_demo",
  391.     "formatting": "sharegpt",
  392.     "columns": {
  393.       "messages": "messages",
  394.       "images": "images"
  395.     },
  396.     "tags": {
  397.       "role_tag": "role",
  398.       "content_tag": "content",
  399.       "user_tag": "user",
  400.       "assistant_tag": "assistant"
  401.     }
  402.   },
  403.   "oasst_de": {
  404.     "hf_hub_url": "mayflowergmbh/oasst_de"
  405.   },
  406.   "dolly_15k_de": {
  407.     "hf_hub_url": "mayflowergmbh/dolly-15k_de"
  408.   },
  409.   "alpaca-gpt4_de": {
  410.     "hf_hub_url": "mayflowergmbh/alpaca-gpt4_de"
  411.   },
  412.   "openschnabeltier_de": {
  413.     "hf_hub_url": "mayflowergmbh/openschnabeltier_de"
  414.   },
  415.   "evol_instruct_de": {
  416.     "hf_hub_url": "mayflowergmbh/evol-instruct_de"
  417.   },
  418.   "dolphin_de": {
  419.     "hf_hub_url": "mayflowergmbh/dolphin_de"
  420.   },
  421.   "booksum_de": {
  422.     "hf_hub_url": "mayflowergmbh/booksum_de"
  423.   },
  424.   "airoboros_de": {
  425.     "hf_hub_url": "mayflowergmbh/airoboros-3.0_de"
  426.   },
  427.   "ultrachat_de": {
  428.     "hf_hub_url": "mayflowergmbh/ultra-chat_de"
  429.   },
  430.   "dpo_en_demo": {
  431.     "file_name": "dpo_en_demo.json",
  432.     "ranking": true,
  433.     "formatting": "sharegpt",
  434.     "columns": {
  435.       "messages": "conversations",
  436.       "chosen": "chosen",
  437.       "rejected": "rejected"
  438.     }
  439.   },
  440.   "dpo_zh_demo": {
  441.     "file_name": "dpo_zh_demo.json",
  442.     "ranking": true,
  443.     "formatting": "sharegpt",
  444.     "columns": {
  445.       "messages": "conversations",
  446.       "chosen": "chosen",
  447.       "rejected": "rejected"
  448.     }
  449.   },
  450.   "dpo_mix_en": {
  451.     "hf_hub_url": "llamafactory/DPO-En-Zh-20k",
  452.     "subset": "en",
  453.     "ranking": true,
  454.     "formatting": "sharegpt",
  455.     "columns": {
  456.       "messages": "conversations",
  457.       "chosen": "chosen",
  458.       "rejected": "rejected"
  459.     }
  460.   },
  461.   "dpo_mix_zh": {
  462.     "hf_hub_url": "llamafactory/DPO-En-Zh-20k",
  463.     "subset": "zh",
  464.     "ranking": true,
  465.     "formatting": "sharegpt",
  466.     "columns": {
  467.       "messages": "conversations",
  468.       "chosen": "chosen",
  469.       "rejected": "rejected"
  470.     }
  471.   },
  472.   "ultrafeedback": {
  473.     "hf_hub_url": "llamafactory/ultrafeedback_binarized",
  474.     "ms_hub_url": "llamafactory/ultrafeedback_binarized",
  475.     "ranking": true,
  476.     "columns": {
  477.       "prompt": "instruction",
  478.       "chosen": "chosen",
  479.       "rejected": "rejected"
  480.     }
  481.   },
  482.   "rlhf_v": {
  483.     "hf_hub_url": "llamafactory/RLHF-V",
  484.     "ranking": true,
  485.     "formatting": "sharegpt",
  486.     "columns": {
  487.       "messages": "conversations",
  488.       "chosen": "chosen",
  489.       "rejected": "rejected",
  490.       "images": "images"
  491.     }
  492.   },
  493.   "vlfeedback": {
  494.     "hf_hub_url": "Zhihui/VLFeedback",
  495.     "ranking": true,
  496.     "formatting": "sharegpt",
  497.     "columns": {
  498.       "messages": "conversations",
  499.       "chosen": "chosen",
  500.       "rejected": "rejected",
  501.       "images": "images"
  502.     }
  503.   },
  504.   "orca_pairs": {
  505.     "hf_hub_url": "Intel/orca_dpo_pairs",
  506.     "ranking": true,
  507.     "columns": {
  508.       "prompt": "question",
  509.       "chosen": "chosen",
  510.       "rejected": "rejected",
  511.       "system": "system"
  512.     }
  513.   },
  514.   "hh_rlhf_en": {
  515.     "script_url": "hh_rlhf_en",
  516.     "ranking": true,
  517.     "columns": {
  518.       "prompt": "instruction",
  519.       "chosen": "chosen",
  520.       "rejected": "rejected",
  521.       "history": "history"
  522.     }
  523.   },
  524.   "nectar_rm": {
  525.     "hf_hub_url": "AstraMindAI/RLAIF-Nectar",
  526.     "ms_hub_url": "AI-ModelScope/RLAIF-Nectar",
  527.     "ranking": true
  528.   },
  529.   "orca_dpo_de": {
  530.     "hf_hub_url": "mayflowergmbh/intel_orca_dpo_pairs_de",
  531.     "ranking": true
  532.   },
  533.   "kto_en_demo": {
  534.     "file_name": "kto_en_demo.json",
  535.     "formatting": "sharegpt",
  536.     "columns": {
  537.       "messages": "messages",
  538.       "kto_tag": "label"
  539.     },
  540.     "tags": {
  541.       "role_tag": "role",
  542.       "content_tag": "content",
  543.       "user_tag": "user",
  544.       "assistant_tag": "assistant"
  545.     }
  546.   },
  547.   "kto_mix_en": {
  548.     "hf_hub_url": "argilla/kto-mix-15k",
  549.     "formatting": "sharegpt",
  550.     "columns": {
  551.       "messages": "completion",
  552.       "kto_tag": "label"
  553.     },
  554.     "tags": {
  555.       "role_tag": "role",
  556.       "content_tag": "content",
  557.       "user_tag": "user",
  558.       "assistant_tag": "assistant"
  559.     }
  560.   },
  561.   "ultrafeedback_kto": {
  562.     "hf_hub_url": "argilla/ultrafeedback-binarized-preferences-cleaned-kto",
  563.     "ms_hub_url": "AI-ModelScope/ultrafeedback-binarized-preferences-cleaned-kto",
  564.     "columns": {
  565.       "prompt": "prompt",
  566.       "response": "completion",
  567.       "kto_tag": "label"
  568.     }
  569.   },
  570.   "wiki_demo": {
  571.     "file_name": "wiki_demo.txt",
  572.     "columns": {
  573.       "prompt": "text"
  574.     }
  575.   },
  576.   "c4_demo": {
  577.     "file_name": "c4_demo.json",
  578.     "columns": {
  579.       "prompt": "text"
  580.     }
  581.   },
  582.   "refinedweb": {
  583.     "hf_hub_url": "tiiuae/falcon-refinedweb",
  584.     "columns": {
  585.       "prompt": "content"
  586.     }
  587.   },
  588.   "redpajama_v2": {
  589.     "hf_hub_url": "togethercomputer/RedPajama-Data-V2",
  590.     "columns": {
  591.       "prompt": "raw_content"
  592.     },
  593.     "subset": "default"
  594.   },
  595.   "wikipedia_en": {
  596.     "hf_hub_url": "olm/olm-wikipedia-20221220",
  597.     "ms_hub_url": "AI-ModelScope/olm-wikipedia-20221220",
  598.     "columns": {
  599.       "prompt": "text"
  600.     }
  601.   },
  602.   "wikipedia_zh": {
  603.     "hf_hub_url": "pleisto/wikipedia-cn-20230720-filtered",
  604.     "ms_hub_url": "AI-ModelScope/wikipedia-cn-20230720-filtered",
  605.     "columns": {
  606.       "prompt": "completion"
  607.     }
  608.   },
  609.   "pile": {
  610.     "hf_hub_url": "monology/pile-uncopyrighted",
  611.     "ms_hub_url": "AI-ModelScope/pile",
  612.     "columns": {
  613.       "prompt": "text"
  614.     }
  615.   },
  616.   "skypile": {
  617.     "hf_hub_url": "Skywork/SkyPile-150B",
  618.     "ms_hub_url": "AI-ModelScope/SkyPile-150B",
  619.     "columns": {
  620.       "prompt": "text"
  621.     }
  622.   },
  623.   "fineweb": {
  624.     "hf_hub_url": "HuggingFaceFW/fineweb",
  625.     "columns": {
  626.       "prompt": "text"
  627.     }
  628.   },
  629.   "fineweb_edu": {
  630.     "hf_hub_url": "HuggingFaceFW/fineweb-edu",
  631.     "columns": {
  632.       "prompt": "text"
  633.     }
  634.   },
  635.   "the_stack": {
  636.     "hf_hub_url": "bigcode/the-stack",
  637.     "ms_hub_url": "AI-ModelScope/the-stack",
  638.     "columns": {
  639.       "prompt": "content"
  640.     }
  641.   },
  642.   "starcoder_python": {
  643.     "hf_hub_url": "bigcode/starcoderdata",
  644.     "ms_hub_url": "AI-ModelScope/starcoderdata",
  645.     "columns": {
  646.       "prompt": "content"
  647.     },
  648.     "folder": "python"
  649.   }
  650. }
复制代码
合并

  1. llamafactory-cli export   examples/merge_lora/qwen2vl_lora_sft.yaml
复制代码
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

尚未崩坏

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表