注:像这种即为蓝色废图 2.3 Lora模型
Lora模型想必各人都常常看到了,LoRA的英文全称为Low-Rank Adaptation of Large Language Models,直译为“大语言模型的低阶适应”。这是一项由微软研究职员提出的大语言模型微调技能,简单来说,它的作用是让这些庞大的模型变得更加灵活和高效,可以大概在特定任务上举行优化(比如对样式举行一些修改),而不必要重新开始练习整个模型。
比如像下面这个Lora模型,就是在大模型的基础上增加一些森林水母发光的效果(就是我们不必为了增加这个效果,重新练习我们的大模型,因为练习大模型耗费时间很长,通过Lora就可以提高效率)