本文原文来自DataLearnerAI官方网站:
阿里开源停止目前为止参数规模最大的Qwen1.5-110B模型:MMLU评测接近Llama-3-70B,略超Mixtral-8×22B! | 数据学习者官方网站(Datalearner)https://www.datalearner.com/blog/1051714140775766
Qwen1.5系列是阿里开源的一系列大语言模型,也是目前为止最强开源模型之一。Qwen1.5是Qwen2的beta版本,此前开源的模型最大参数规模都是720亿,和第一代模型一样。就在刚刚,阿里开源了1100亿参数规模的Qwen1.5-110B模型。评测效果表现MMLU略超Llama3-70B和Mixtral-8×22B。DataLearnerAI实测效果,相比Qwen1.5-72B模型来说,Qwen1.5-110B模型复杂使命的逻辑提拔比力显着!
Qwen1.5-110B模型简介
在开源大模型范畴,最大的模型参数规模通常不会超过700亿参数规模。最近2个月,国外开源的DBRX、Mixtral-8×22B-MoE是最新的超过1000亿参数规模的模型。而国内此前开源范畴最大的参数模型是720亿参数规模的Qwen1.5-72B规模和650亿参数的深圳元象科技开源的XVERSE-65B。
这次阿里开源的1100亿参数规模的Qwen1.5-110B模型是停止目前为止国内开源模型中参数规模最大的模型。Qwen1.5-110B模型与其它Qwen1.5系列模型架构一致。采用了分组查询留意力机制,因此推理效率很高。该模型最高支持32K上下文,并且支持多语言,包括英文、中文、法语、西班牙语、德语、俄语、韩语、日文等。
按照1100亿参数估计,Qwen1.5-110B模型半精度的推理显存须要220GB。
Qwen1.5-110B模型开源的版本包含基座模型和Chat优化版本,可以说诚意满满!
Qwen1.5-110B模型的评测效果
根据官方公布的评测效果,Qwen1.5-110B模型的评测效果略略超过Llama-3-70B和Mixtral-8×22B。也比Qwen1.5-72B模型本身更强。在DataLearnerAI收集的举世大模型排行榜中,Qwen1.5-110B模型的评测效果非常靠前:
数据来源:大模型综合评测对比 | 当前主流大模型在各评测数据集上的表现总榜单 | 数据学习 (DataLearner)
这是按照MMLU排序的效果,也是除了Llama3-70B-Instruct模型外最强的开源模型。
Qwen1.5-110B模型实测效果
官方在HF上放了演示链接,我们用一个实例测试了Qwen1.5-110B和Qwen1.5-72B,模型逻辑方面Qwen1.5-110B模型显着更好,答案非常准确:
模型的开源地址和演示地址可以参考DataLearnerAI的模型信息卡:
Qwen1.5-110B:Qwen1.5-110B(Qwen1.5-110B)具体信息 | 名称、简介、使用方法,开源环境,商用授权信息 | 数据学习(DataLearner)
Qwen1.5-110B-Chat:Qwen1.5-110B-Chat(Qwen1.5-110B-Chat)具体信息 | 名称、简介、使用方法,开源环境,商用授权信息 | 数据学习(DataLearner)
Qwen1.5-72B:Qwen1.5-72B-Chat(Qwen1.5-72B-Chat)具体信息 | 名称、简介、使用方法,开源环境,商用授权信息 | 数据学习(DataLearner)
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |