一、前言
本篇文章将利用ms-swift去高效微调QWen2系列模子,通过阅读本文,您将可以大概更好地掌握这些关键技能,理解此中的关键技能要点,并应用于本身的项目中。
<hr> 二、术语先容
2.1. LoRA微调
LoRA (Low-Rank Adaptation) 用于微调大型语言模子 (LLM)。 是一种有效的自适应策略,它不会引入额外的推理延迟,并在保持模子质量的同时显着减少下游任务的可练习参数数目。
2.2.参数高效微调(PEFT)
仅微调少量 (额外) 模子参数,同时冻结预练习 LLM 的大部门参数,从而大大降低了计算和存储成本。
2.3. Qwen2-7B-Instruct
是通义千问 Qwen2 系列中的一个指令微调模子。它在 Qwen2-7B 的底子上进行了指令微调,以提高模子在特定任务上的性能。
Qwen2-7B-Instruct 具有以下特点:
- 强盛的性能:在多个基准测试中,Qwen2-7B-Instruct 的性能可与 Llama-3-70B-Instruct 相匹敌。
- 代码和数学本领提升:得益于高质量的数据和指令微调,Qwen2-7B-Instruct 在数学和代码本领上实现了飞升。
- <
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |