开源模子应用落地-qwen1.5-7b-chat与vllm实现推理加速的正确姿势(八) ...

打印 上一主题 下一主题

主题 876|帖子 876|积分 2628

一、前言

     就在前几天开源社区又发布了qwen1.5版本,它是qwen2模子的测试版本。在本篇学习中,将集成vllm实现模子推理加速,现在,我们赶紧跟上技术发展的脚步,去体验一下新版本模子的推理质量。
<hr> 二、术语

2.1. vLLM

     vLLM是一个开源的大模子推理加速框架,通过PagedAttention高效地管理attention中缓存的张量,实现了比HuggingFace Transformers高14-24倍的吞吐量。
2.2. qwen1.5

    Qwen1.5是Qwen2的测试版,这是一个基于转换器的纯解码器语言模子,在大量数据上进行了预训练。
     In comparison with the previous released Qwen, the improvements include:


  • 6 model sizes, including 0.5B, 1.8B, 4B, 7B, 14B, and 72B;
  • Significant performance improvement in human preference for chat models;
  • Multilingual support of both base and chat models;

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

水军大提督

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表