阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
3月6日最新消息,阿里云通义千问官方宣布推出最新推理模子 QwQ-32B,这一模子仅有 32B 参数,但在效果上与拥有 671B 参数的 DeepSeek-R1 相媲美。如果你自己部署 DeepSeek-R1 但资源不够的话,又多了一个新的选择。QwQ-32B 的独特之处不仅在于其参数规模和效果表现,还集成了与 Agent 相干的本领。这使得模子在利用工具时可以大概进行批判性思索,并依据环境反馈机动调整推理过程,极大提拔了模子的适应性与智能性。
现在,QwQ-32B 已上线 Hugging Face、ModelScope、Ollama等平台,详细链接如下:
[*]• https://huggingface.co/Qwen/QwQ-32B
[*]• https://modelscope.cn/models/Qwen/QwQ-32B
[*]• https://ollama.com/library/qwq
QwQ-32B 采用 Apache 2.0 开源协议,为广大开辟者提供了便捷的利用途径。用户也可通过 Qwen Chat直接体验其强大功能。
下图是其与其他热门模子的测试对比:
https://i-blog.csdnimg.cn/img_convert/d8024dd2b3600b0062c35c1dd79add4f.png 测试效果令人瞩目。在数学推理的 AIME24 评测集以及编程本领的 LiveCodeBench 测试中,QwQ-32B 表现与 DeepSeek-R1 相当,远超 o1-mini 及相同尺寸的 R1 蒸馏模子。在由 Meta 首席科学家杨立昆领衔的 “最难 LLMs 评测榜” LiveBench、谷歌等提出的指令遵照本领 IFEval 评测集、加州大学伯克利分校等提出的评估正确调用函数或工具方面的 BFCL 测试中,QwQ-32B 更是逾越了 DeepSeek-R1,展现出全面的优势。
快速本地部署
如果想要快速本地部署尝试,那就继续清楚Ollama,两条命令快速搞定。
[*]1. 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh 如果本地MacOS或者Windows开辟环境利用的话,也可以从前去官网下载客户端版本:https://ollama.com/download
[*]2. 启动 QwQ-32B
ollama run qwqSpring AI调用API集成
由于这里利用了Ollama来启动QwQ-32B并提供服务,所以Java开辟者可以利用利用Spring AI Ollama来集成模子本领到自己的应用中去。
详细如何集成在之前介绍集成DeepSeek-R1的时候介绍过了,方法雷同,就是换个模子名称。如果还不会的话,可以参考之前的这篇文章 Spring AI + Ollama 实现 deepseek-r1 的API服务和调用 中利用Spring AI调API的部门。
感谢阅读!如果您也关注前沿AI和开辟者相干资讯,欢迎点赞、关注支持一下。
我们创建了一个高质量的技能交换群,与良好的人在一起,自己也会良好起来,赶紧 点击加群,享受一起成长的快乐。
你还在购买国内的各种昂贵又低质的技能教程吗?这里给大家推荐下我们自研的Youtube视频语音转换插件(https://youtube-dubbing.com/),一键外语转中文,英语欠好的小同伴也可以轻松的学习油管上的优质教程了,下面是演示视频,可以直观的感受一下:
另外,如果您是要制作翻译视频,那么还可以尝试一下我们的另一款面向视频翻译制作的工具 TransDuck (https://transduck.com/)
推荐阅读
拒绝繁忙!免费利用 deepseek-r1:671B 参数满血模子
Spring AI + Ollama 实现 deepseek-r1 的API服务和调用
AI期间做副业搞钱的门槛又又又降低了!
智谱Bigmodel GLM系列新升级:极致性能与最强性价比
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页:
[1]