[论文笔记] llama-factory 微调qwen2.5、llama3踩坑

打印 上一主题 下一主题

主题 576|帖子 576|积分 1728

一、bug

1、pre-tokenize的时候, 会OOM

解决:在yaml文件中添加streaming参数
  1. # tokenize
  2. streaming: True
  3. max_steps: 10000
复制代码
https://github.com/hiyouga/LLaMA-Factory/blob/3a023bca2a502810a436cfba7708df164754ea62/src/llamafactory/hparams/data_args.py#L39-L41
     streaming: bool = field(
         default=False,
         metadata={"help": "Enable dataset streaming."},
     max_steps: 10000
<

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

正序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

梦应逍遥

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表