论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
只需一步,快速开始
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
IT评测·应用市场-qidao123.com
»
论坛
›
物联网
›
物联网
›
LLM加速方法,Adapter Tuning和Prompt Tuning的区别及原 ...
LLM加速方法,Adapter Tuning和Prompt Tuning的区别及原理举例 ...
锦通
论坛元老
|
2025-1-10 12:57:14
|
显示全部楼层
|
阅读模式
楼主
主题
1026
|
帖子
1026
|
积分
3078
马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
LLM加速方法
整体结构
基于模子微调、基于模子压缩、基于分布式并行处理。
各分支内容
基于模子微调
:
包罗Adapter Tuning、Prompt Tuning、LoRA三个子类别。这些技术主要通过对模子进行微调来优化传输,
比方Adapter Tuning是在
模子中添加一些小的适配模
块,
Prompt Tuning是通过
调整提示信息来优化模子
,
LoRA则是一种
低秩适配方法
,以淘汰模子训练和传输的参数目。
基于模子压缩
:
又细分为剪枝、知识蒸馏、量化、低秩分解。剪枝是指去除模子中一些不重要的毗连或参数,以减小模子规模;
知识蒸馏是让一个小模子去学习大模子的知识,从而在保持性能的同时降低模子复杂度;
量化是将模子的参数用更低精度的数据表现,淘汰数据量;
低秩分解则是将模子的参数矩阵进行分解,降低盘算和存储成本。
基于分布式并行处理
: <
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复
使用道具
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
锦通
论坛元老
这个人很懒什么都没写!
楼主热帖
漏洞利用
vue3 - 最新详细实现 “拖曳式课程表“ ...
快速入手node.js
奇怪,为什么ArrayList初始化容量大小 ...
医院HIS体系厂家统计
如何成为一位人心所向的管理者?我的经 ...
Kubernetes(k8s)pod详解
如何在文章中设置灰色文本框(正文底色 ...
Vue实现复制粘贴功能
理解MVCC
标签云
AI
运维
CIO
存储
服务器
快速回复
返回顶部
返回列表