qidao123.com技术社区-IT企服评测·应用市场
标题:
CV和NLP领域常见模型列表
[打印本页]
作者:
张国伟
时间:
2025-4-29 03:20
标题:
CV和NLP领域常见模型列表
图像分类(Image Classification)
模型名特点备注
ConvNeXt V2
卷积改进,媲美 Transformer强于 ResNet、EfficientNet
Vision Transformer (ViT)
全 Transformer 架构开创图像 transformer 海潮
Swin Transformer V2
局部留意力 + 金字塔结构更强的多尺度能力
CoaT / CMT / EfficientFormer
卷积+留意力结合提高效率,兼顾性能
目的检测(Object Detection)
模型名类型特点
YOLOv8
单阶段快速轻量,工业实用
RT-DETR
Transformer实时 DETR,端到端快
DINO
TransformerDETR 系列最强,效果极佳
Sparse R-CNN
Region-based不用 anchor,更精炼
Deformable DETR
Transformer + 可变卷积提高收敛速度
实例分割(Instance Segmentation)
模型名基础架构特点
Mask R-CNN
Faster R-CNN + mask head经久不衰的经典方案
SOLOv2 / YOLACT
单阶段实时分割方案
Mask2Former
Transformer + 全任务统一分割任务通吃(语义/实例/全景)
语义分割(Semantic Segmentation)
模型名特点数据集
SegFormer
高效的 transformer 分割Cityscapes, ADE20K
HRNet
高分辨率保持多尺度信息并行
DeepLabv3+
空洞卷积曾是标准方法
Mask2Former
通用分割架构适配全部分割类型
视频理解(Video Understanding)
模型名任务特点
VideoMAE
视频分类自监视预训练,体现强
TimeSFormer
Transformer分离时空 attention
SlowFast
动作识别快慢路径建模动作变化
多模态视觉(Vision + Language)
模型名类型特点
BLIP / BLIP-2
图文天生/理解支持图像描述、VQA、跨模态检索
OFA
One-For-All统一多模态任务
GIT
图文 Transformer图像 → 文本,轻量高效
MiniGPT-4 / LLaVA
类 GPT-4V图文对话,基于视觉 encoder + LLM
自动驾驶/3D 检测(3D Detection / Perception)
模型名特点数据集
BEVFormer
bird’s-eye-view TransformerNuScenes, Waymo
PointRCNN
基于点云的 R-CNNKITTI
PV-RCNN
高效的两阶段点云检测3D 识别 SOTA 多次
CenterPoint
anchor-free + center-based快速稳固
视觉基础模型(视觉大模型,VLM)
模型名类型特点
CLIP
图文对齐开创多模态预训练
DINOv2
视觉体现学习强盛的通用视觉表征
SAM (Segment Anything)
万能分割器Promptable 分割范式
SEEM
Everything Model多模态提示泛化分割
Florence / BEiT-3
微软大模型文本图像联合建模
文本分类 / 情感分析(Text Classification / Sentiment Analysis)
模型特点常用数据集
RoBERTa
BERT 的优化版,泛化更强SST-2, AGNews
DeBERTa V3
解耦留意力,体现顶级GLUE, IMDb
ERNIE 3.0
知识增强预训练中文任务强
ELECTRA
GAN 式训练,高效收敛-
文本天生(Text Generation)
模型特点应用方向
GPT-4
多模态,推理能力强通用文本天生
LLaMA 2
开源强模型,得当微调Chat、创作等
GLM-4
中英文体现均衡,开放模型中英天生、对话
T5 / FLAN-T5
任务统一建模可调教天生模型
阅读理解 / 问答(Reading Comprehension / QA)
模型特点数据集
UnifiedQA
多任务问答统一架构SQuAD, HotpotQA
Macaw
开放域 QA可解答知识、多步标题
GPT 系列 + Retrieval
检索增强天生RAG, WebQA 等
ChatGPT (GPT-3.5/4)
多轮推理能力多任务泛化强
语言建模 / 通用 LLM
模型说明
GPT-4 / ChatGPT
多任务通用模型,体现全面
Claude 3
强推理与安全性兼顾
Gemini
Google 的多模态旗舰
LLaMA 2
高性价比开源 LLM
GLM 系列
中文支持强,开源友好
Mistral / Mixtral
小模型高性能,MoE 架构代表
文本摘要(Summarization)
模型特点任务类型
PEGASUS
预训练专为摘要计划abstractive summarization
BART / mBART
编码解码 + 噪声建模多语言支持强
T5 / FLAN-T5
任务统一建模恣意格式摘要
ChatGPT / GPT-4
长文摘要能力优秀长文+结构保持
信息抽取(NER / RE / Event Extraction)
模型特点
BERT-MRC / UIE(统一信息抽取)
提示式信息抽取(统一问答框架)
LayoutLMv3
文档抽取 + 视觉增强
DyGIE++
实体 + 关系 + 变乱联合抽取
ChatGLM + Prompt
用于小样本 Prompt NER
机器翻译(Machine Translation)
模型特点来源
mBART / mT5
多语言预训练Facebook / Google
NLLB-200
支持 200 多种语言Meta
DeepL + GPT-4
实用最强组合商业翻译+润色
ChatGPT
润色式翻译优于通用 NMT
推理任务(自然语言推理 NLI / 多跳问答 / 多步推理)
模型特点数据集
DeBERTa / RoBERTa
NLI 经典强者MNLI
GPT-4
多步链式推理能力强Chain-of-Thought
ReAct / CoT Prompting
结合工具和思索的推理范式HotpotQA, OpenBookQA
多语言 NLP(Multilingual NLP)
模型特点
mBERT / XLM-R
多语言预训练的经典
mT5 / mBART50
多语言翻译 + NLU 支持
NLLB-200
特别得当低资源语言
视觉定位概览
过去几年,视觉定位领域从基于 DETR 的模块化检测-定位框架发展到大规模多模态预训练,再到结合大型语言模型的多粒度天生式方法。早期代表作 MDETR(2021)初次
将检测与定位端到端统一
;随后 GLIP(2021)通过语言——图像对齐预训练在 COCO 上取得 60.8 AP 的 SOTA 成绩;GLIPv2(2022)进一步拓展到实例分割与多任务跨模态理解。2023 年,Grounding DINO 在零样本检测与定位上革新记录;2024 年底的 OneRef 与 HiVG 引入了天生式和条理化多模态战略;最新的Ferret(ICLR 2024)将定位能力嵌入到多模态 LLM,实现
恣意形状的开放词汇定位
;乃至 3D 视觉定位领域也涌现出 SeeGround(2024 12)等零样本框架。
从基于 DETR 的端到端方法(如 MDETR)➔地区–短语对齐预训练(如 GLIP/GLIPv2)➔零样本&开放词汇定位(GroundingDINO 及其 Pro 版本)➔天生式&统一框架(OneRef、Generative VLM)➔多模态大模型(Ferret、Kosmos-2)的融合应⽤。
1. 基于 DETR 的端到端定位模型
MDETR (2021)
:首个将目的检测与自然语言定位统一在 DETR 框架下,通过多模态编码器-解码器端到端训练,实现对 RefCOCO 系列基准的领先体现。
LightMDETR (2024)
:轻量化版本,P@1 在 RefCOCO(85.92%)与 RefCOCOg(80.97%)上略超原始 MDETR,验证了“低成本”端到端方法的可行性
Position-guided Text Prompt
:在预训练阶段通过“分块+填空”机制强化图文位置对齐,有效提升下游定位精度。
RefFormer(NIPS 2024)
:通过“查询适配(Referential Query)”模块,将 CLIP 作为背靠骨干,天生初始查询以减轻多模态解码难度,在五个视觉定位基准上超越此前 SOTA。
2. 地区—短语对齐预训练
GLIP (CVPR 2022)
:Grounded Language-Image Pre-training 模型,统一目的检测与短语定位预训练,实现 60.8 AP on COCO val,并显现强zero-shot、few-shot 能力。
GLIPv2 (2022)
:在 GLIP 基础上,增长实例分割与多任务理解,统一 Localization 与 Vision–Language Pre-training,使单一模型同时到达检测、分割与定位的 SOTA 水平。
CLIP-VG (TMM 2023)
:使用 CLIP 天生伪语言标签并自适应课程学习,在 RefCOCO/+/g 上的全/弱监视与无监视场景均革新了当时记录。
3. 零样本与开放词汇定位
GroundingDINO (ECCV 2024)
:将 DINO 检测器与 grounded pre-training 结合,实现开放词汇检测与定位的零样本 SOTA,在 COCO、LVIS 及 ODinW 等基准上体现优秀。
GroundingDINO 1.6 Pro (2025 Q1)
:对 1.5 版本进一步优化,尤其是在 LVIS “rare” 类的零样本迁徙上取得更大提升。
Florence-2-large-ft
:在 Papers With Code Leaderboard 上,Florence-2-large-ft 在 RefCOCO+、RefCOCO、RefCOCOg 多个拆分上均居榜首。
4. 天生式统一与条理化多模态战略
OneRef (NeurIPS 2024)
:通过天生式定位机制,实现端到端从文本到检测框的“一步到位” Referring Expression Comprehension,通过 Mask Referring Modeling(MRefM)在 RefCOCOg/Flickr30K 上革新记录。
Learning Visual Grounding from Generative VLM (Jul 2024)
:使用大规模天生式 VLM 自动构建 1M+ 对应表达的 Grounding 数据集,零样本迁徙到 RefCOCO 系列便大幅超越人标方
HiVG (ACM MM 2024)
:采取条理化多模态细粒度特性融合,进一步提升复杂表达式下的定位准确率。
5. 大型多模态语言模型融合
Ferret (ICLR 2024)
:将混合离散坐标与连续特性的地区体现融合到 MLLM 中,支持恣意形状、开放词汇的精细化视觉定位。
Kosmos-2 (2023)
:通过 Markdown 链接式表达[text span](bounding boxes),基于大规模 GrIT 语义-视觉对齐数据集训练,将定位能力内嵌到通用多模态 LLM,实现多任务跨模态理解与定位。
BLIP-2 (2023)
:使用冻结的图像与语言模型,通过轻量级查询器桥接两者,实现低成本预训练并在包罗定位在内的多项视觉-语言任务上革新 SOTA。
6. 3D 场景定位
SeeGround (2024 12)
:零样本 3D 视觉定位框架,将 2D 预训练 VLM 扩展至 3D 场景,通过多视角渲染与空间描述融合,超越弱监视和部分监视 SOTA。
视觉定位的 SOTA 模型已覆盖从端到端 DETR、地区–短语预训练、零样本开放词汇、天生式一体化,到多模态大模型等全栈技术门路。选型应根据下游需求(精度 vs. 效率、零/少样本、天生能力、LLM 集成)进行权衡。
模型名称参数量 (B)RefCOCO (val / testA / testB)RefCOCO+ (val / testA / testB)RefCOCOg (val / test)
KOSMOS-2
1.652.32 / 57.42 / 47.2645.48 / 50.73 / 42.2460.57 / 61.65
MDETR-R101
–86.75 / 89.58 / 81.4179.52 / 84.09 / 70.6281.64 / 80.89
NExT-Chat
785.50 / 90.00 / 77.9077.20 / 84.50 / 68.0080.10 / 79.80
MDETR-ENB3
–87.51 / 90.40 / 82.6781.13 / 85.52 / 72.9683.35 / 83.31
Shikra
787.01 / 90.61 / 80.2481.60 / 87.36 / 72.1282.27 / 82.19
Ferret
787.49 / 91.35 / 82.4580.78 / 87.38 / 73.1483.93 / 84.76
GroundingGPT
788.02 / 91.55 / 82.4781.61 / 87.18 / 73.1881.67 / 81.99
PixelLLM
489.80 / 92.20 / 86.4083.20 / 87.00 / 78.9084.60 / 86.00
SimVG-DB-Base
0.1891.47 / 93.65 / 87.9484.83 / 88.85 / 79.1286.30 / 87.26
COMM-7B
791.73 / 94.06 / 88.8587.21 / 91.74 / 81.3987.32 / 88.33
SimVG-DB-Large
0.6192.87 / 94.35 / 89.4687.28 / 91.64 / 82.4187.99 / 89.15
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
欢迎光临 qidao123.com技术社区-IT企服评测·应用市场 (https://dis.qidao123.com/)
Powered by Discuz! X3.4