阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了! ...

打印 上一主题 下一主题

主题 935|帖子 935|积分 2805

3月6日最新消息,阿里云通义千问官方宣布推出最新推理模型 QwQ-32B,这一模型仅有 32B 参数,但在效果上与拥有 671B 参数的 DeepSeek-R1 相媲美。如果你自己部署 DeepSeek-R1 但资源不敷的话,又多了一个新的选择。
QwQ-32B 的独特之处不但在于其参数规模和效果表现,还集成了与 Agent 相干的本领。这使得模型在使用工具时能够举行批判性思考,并依据环境反馈灵活调整推理过程,极大提升了模型的适应性与智能性。
目前,QwQ-32B 已上线 Hugging Face、ModelScope、Ollama等平台,具体链接如下:
QwQ-32B 采用 Apache 2.0 开源协议,为广大开辟者提供了便捷的使用途径。用户也可通过 Qwen Chat直接体验其强盛功能。
下图是其与其他热门模型的测试对比:

测试结果令人瞩目。在数学推理的 AIME24 评测集以及编程本领的 LiveCodeBench 测试中,QwQ-32B 表现与 DeepSeek-R1 相当,远超 o1-mini 及相同尺寸的 R1 蒸馏模型。在由 Meta 首席科学家杨立昆领衔的 “最难 LLMs 评测榜” LiveBench、谷歌等提出的指令遵照本领 IFEval 评测集、加州大学伯克利分校等提出的评估准确调用函数或工具方面的 BFCL 测试中,QwQ-32B 更是逾越了 DeepSeek-R1,展现出全面的优势。
快速本地部署

如果想要快速本地部署尝试,那就继续清楚Ollama,两条命令快速搞定。

  • 安装 Ollama
  1. curl -fsSL https://ollama.com/install.sh | sh
复制代码
如果本地MacOS或者Windows开辟环境使用的话,也可以从前去官网下载客户端版本:https://ollama.com/download

  • 启动 QwQ-32B
  1. ollama run qwq
复制代码
Spring AI调用API集成

由于这里使用了Ollama来启动QwQ-32B并提供服务,所以Java开辟者可以使用使用Spring AI Ollama来集成模型本领到自己的应用中去。
具体怎样集成在之前先容集成DeepSeek-R1的时候先容过了,方法雷同,就是换个模型名称。如果还不会的话,可以参考之前的这篇文章Spring AI + Ollama 实现 deepseek-r1 的API服务和调用中使用Spring AI调API的部分。
感谢阅读!如果您也关注前沿AI和开辟者相干资讯,欢迎点赞、关注支持一下。
欢迎关注我的公众号:程序猿DD。第一时间相识前沿行业消息、分享深度技术干货、获取优质学习资源

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

温锦文欧普厨电及净水器总代理

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表