开源的自动驾驶视觉语言模子标注数据集
网络了一些关于vlm的开源数据集,供参考
开源项目列表
项目名称描述链接VLM-R1基于Qwen2.5-VL和R1强化学习技术的开源视觉语言模子,支持图像和文本的连合处理GitHub - VLM-R1VLMEvalKit大型视觉语言模子的开源评估工具包,支持多种评估任务GitHub - VLMEvalKitSmolVLM小巧、快速、内存高效的开源视觉语言模子,包罗模子查抄点、数据集和训练工具Hugging Face - SmolVLMMolmo VLM开源视觉语言模子家族,适用于指向、计数、视觉问答等任务Learn OpenCV - Molmo VLMVisionArena-Battle包罗30K真实天下图像对话和偏好投票的标注数据集Hugging Face - VisionArena-BattleLlavaGuard基于VLM的视觉掩护框架,包罗高质量人工标注的多模态安全数据集arXiv - LlavaGuardVLFeedback开源的GPT-4V标注视觉语言偏好数据集,包罗80K指令和多个大型视觉语言模子的响应VLFeedbackTouch-Vision-Language Dataset结合触觉、视觉和语言的多模态对齐数据集,包罗43,741个图像-触觉对Touch-Vision-Language DatasetPrometheus-Vision用于细粒度评估的视觉语言模子,模仿人类评估者和GPT-4V的反馈Prometheus-VisionSAIL-VL通过高质量数据管理实现可扩展训练的开源视觉语言模子系列arXiv - SAIL-VL 以上是关于自动驾驶视觉语言模子标注数据集的开源项目列表,每个项目都提供了不同的功能和数据集,适用于不同的研究和应用场景。
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |