LLaMA-Factory|微调大语言模型初探索(3),qlora微调deepseek记录 ...

打印 上一主题 下一主题

主题 894|帖子 894|积分 2682

前言

  上篇文章记录了使用lora微调llama-1b,微调乐成,但是微调llama-8b显存爆炸,这次实验使用qlora来实验微调参数体量更大的大语言模型,看看64G显存的极限在哪里。
1.Why QLora?



  • QLoRA 在模型加载阶段通过 4-bit 量化大幅减少了模型权重的显存占用。
  • QLoRA 通过 反量化到 BF16 进行练习,在保持计算精度的同时,进一步节省显存和进步效率。
  • QLoRA 在加载、练习、以及权重存储等多个方面都进行了优化,从而有用地减少了显存使用。
    总结:比Lora节省显存!!
2.LLaMA-Factory支持模型


如上图所示,这是LLaMA-Factory所有支持的大语言模型,你可以选择你感爱好的模型进行微调。
LLaMA-Factory
3.实验Llama-3.2-3B



  • 下载Llama-3.2-3B-Instruct

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

正序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

三尺非寒

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表