开源模子应用落地-qwen模子小试-调用Qwen2-VL-7B-Instruct-更清晰地看世界- ...

打印 上一主题 下一主题

主题 992|帖子 992|积分 2976

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?立即注册

x
一、媒介

     本篇文章将使用LLaMA-Factory去高效微调(命令和界面方式)QWen2-VL系列模子,通过阅读本文,您将能够更好地掌握这些关键技能,理解此中的关键技能要点,并应用于自己的项目中。
<hr> 二、术语先容

2.1. LoRA微调

     LoRA (Low-Rank Adaptation) 用于微调大型语言模子 (LLM)。  是一种有效的自适应战略,它不会引入额外的推理延迟,并在保持模子质量的同时显着淘汰下游使命的可练习参数数目。
2.2.参数高效微调(PEFT)

     仅微调少量 (额外) 模子参数,同时冻结预练习 LLM 的大部分参数,从而大大低沉了盘算和存储成本。
2.3. LLaMA-Factory

     是一个与 LLaMA(Large Language Model Meta AI)干系的项目,旨在为用户提供一种简化和优化的方式来练习、微调和部署大型语言模子。该工具通常包罗一系列功能,如数据处理、模子配置、练习监控等,以帮助研究人员和开发者更高效地使用 LLaMA 模子。
    LLaMA-Factory支持的模子列表:


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

千千梦丶琪

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表