论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
只需一步,快速开始
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
IT评测·应用市场-qidao123.com
»
论坛
›
数据库
›
分布式数据库
›
开源模子应用落地-qwen模子小试-调用Qwen2-VL-7B-Instru ...
开源模子应用落地-qwen模子小试-调用Qwen2-VL-7B-Instruct-更清晰地看世界- ...
千千梦丶琪
金牌会员
|
2024-9-27 06:03:56
|
显示全部楼层
|
阅读模式
楼主
主题
992
|
帖子
992
|
积分
2976
马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
一、媒介
本篇文章将使用LLaMA-Factory去高效微调(命令和界面方式)QWen2-VL系列模子,通过阅读本文,您将能够更好地掌握这些关键技能,理解此中的关键技能要点,并应用于自己的项目中。
<hr>
二、术语先容
2.1. LoRA微调
LoRA (Low-Rank Adaptation) 用于微调大型语言模子 (LLM)。 是一种有效的自适应战略,它不会引入额外的推理延迟,并在保持模子质量的同时显着淘汰下游使命的可练习参数数目。
2.2.参数高效微调(PEFT)
仅微调少量 (额外) 模子参数,同时冻结预练习 LLM 的大部分参数,从而大大低沉了盘算和存储成本。
2.3.
LLaMA-Factory
是一个与 LLaMA(Large Language Model Meta AI)干系的项目,旨在为用户提供一种简化和优化的方式来练习、微调和部署大型语言模子。该工具通常包罗一系列功能,如数据处理、模子配置、练习监控等,以帮助研究人员和开发者更高效地使用 LLaMA 模子。
LLaMA-Factory支持的模子列表:
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复
使用道具
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
千千梦丶琪
金牌会员
这个人很懒什么都没写!
楼主热帖
SQLserver的安装
【C++】ZZ1864- 解题精讲
一文搞清UNIX/Linux与Windows文件换行 ...
StoneDB社区答疑第一期
数据湖Hudi与对象存储Minio及Hive\Spar ...
C语言程序设计(一)计算机思维导论 ...
开发了一个Java库的Google Bard API, ...
学透shell 带你写常用的100个 shell 脚 ...
【HarmonyOS】初识HarmonyOS
Cesium 几何体贴模型 sampleHeight(二 ...
标签云
AI
运维
CIO
存储
服务器
浏览过的版块
Oracle
物联网
DevOps与敏捷开发
程序人生
前端开发
移动端开发
快速回复
返回顶部
返回列表