论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
只需一步,快速开始
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
IT评测·应用市场-qidao123.com
»
论坛
›
数据库
›
Oracle
›
大语言模型推理技术知识体系
大语言模型推理技术知识体系
锦通
论坛元老
|
2024-12-15 11:40:35
|
显示全部楼层
|
阅读模式
楼主
主题
1026
|
帖子
1026
|
积分
3078
马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
大语言模型推理技术知识体系
一、主流推理框架
1. NVIDIA系
TensorRT-LLM
特点:专为NVIDIA GPU优化
优势:支持In-Flight Batching、Paged KV Caching
性能:INT8模型推理速率最佳
2. 开源方案
vLLM
特点:高吞吐量推理
核心技术:Paged Attention
支持量化
LMDeploy
功能:支持压缩、部署和服务
优势:高效推理,动态分割与融合
性能:吞吐量比vLLM高1.8倍
MLC-LLM
核心:MLCEngine推理引擎
特点:高性能部署
3. 特定平台优化方案
Apple MLX
专为Apple Silicon优化
用户友爱的API
支持统一内存架构
Llama.cpp
轻量级推理框架
支持4位量化
跨平台兼容性好
Candle Rust
Rust实现的ML框架
支持CUDA/CPU/Metal
性能与易用性均衡
二、架构范例
1. 密集变换器(Dense Transformer)
传统架构
盘算本钱高
性能随规模增长
2. MoE变换器(Mixture of Experts)
使用专家网络和门控
盘算效率高
只激活部分专家
3. 肴杂MoE变换器(Hybrid)
团结残差MoE和密集变换器
降低通信开销
进步练习效率
三、优化技术
1. 量化优化
INT8/INT4量化
降低内存占用
提升推理速率
2. 注意力机制优化
Paged Attention
KV Cache
动态批处理惩罚
In-Flight Batching
上下文优化
静态上下文注入
动态上下文注入
RAG(检索增强生成)
KGAG(知识图谱增强生成)
3. 推理策略优化
头脑链(CoT)
布局化推理步调
复杂标题分解
推理与举措(ReAct)
团结推理与举措
增强任务解决本领
4. 硬件适配优化
针对不同硬件平台(GPU/CPU)
算子融合
内存管理
四、性能评估指标
推理延迟
吞吐量
内存占用
盘算效率
响应质量
五、应用场景
对话体系
文本生成
代码补全
知识问答
数学推理
多模态处理惩罚
范畴特定任务
六、部署思量因素
盘算资源需求
本钱效益
可扩展性
维护难度
许可限制
安全合规
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复
使用道具
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
锦通
论坛元老
这个人很懒什么都没写!
楼主热帖
漏洞利用
vue3 - 最新详细实现 “拖曳式课程表“ ...
快速入手node.js
奇怪,为什么ArrayList初始化容量大小 ...
医院HIS体系厂家统计
如何成为一位人心所向的管理者?我的经 ...
Kubernetes(k8s)pod详解
如何在文章中设置灰色文本框(正文底色 ...
Vue实现复制粘贴功能
理解MVCC
标签云
AI
运维
CIO
存储
服务器
浏览过的版块
云原生
移动端开发
MES
Java
虚拟化与私有云
分布式数据库
Mysql
物联网
快速回复
返回顶部
返回列表