阿里推理模型一战封神!32B 硬刚 671B DeepSeek,1/10 成本,苹果笔记本可跑

起猛了,Qwen 发布最新 32B 推理模型,跑分不输 671B 的满血版 DeepSeek R1。

都是杭州团队,要不要这么卷。

QwQ-32B,基于 Qwen2.5-32B + 强化学习炼成。

之后还将与 Agent 相关的功能集成到推理模型中:

可以在调用工具的同时进行进行批判性思考,并根据环境反馈调整其思考过程。

QwQ-32B 的权重以 Apache 2.0 许可证开源,并且可以通过 Qwen Chat 在线体验。

手快的网友直接就是一个本地部署在 m4max 芯片苹果笔记本上。

也有网友连夜 at 各大第三方 API 托管方,赶紧起来干活了。

32B 不输 DeepSeek R1

目前 QwQ-32B 还未放出完整技术报告,官方发布页面对强化学习方法做了简短说明:

从一个冷启动检查点开始,实施了由 Outcome Based Reward 驱动的强化学习(RL)扩展方法。

在初始阶段专门针对数学和编码任务扩展强化学习,没有依赖传统的奖励模型,而是使用一个数学问题准确性验证器来确保最终解决方案的正确性,并使用一个代码执行服务器来评估生成的代码是否成功通过预定义的测试用例。

随着训练轮次的推进,两个领域的性能都呈现持续提升。

在第一阶段之后,为通用能力增加了另一阶段的强化学习,它使用来自通用奖励模型的奖励和一些基于规则的验证器进行训练。

团队发现,这一阶段少量步骤的强化学习训练可以提高其他通用能力的性能,如遵循指令、符合人类偏好以及智能体性能,同时在数学和编码方面不会出现显著的性能下降。

此外在 ModelScope 页面,还可以看出 QwQ 32B 是一个密集模型,没有用到 MoE,上下文长度有 131k。

对此,有亚马逊工程师评价不用 MoE 架构的 32B 模型,意味着可以在单台机器上高效运行。

DeepSeek 没有问题,很强大,但要托管他且盈利需要一个大型集群,还需要使用 DeepSeek 最近开源的一系列通信库。

...... 另一方面 QwQ 32B 可以减少由流水线并行、专家并行带来的复杂性。

如果将 QwQ 32B 添加到代码能力与输出 token 成本的图表中,可以看到它以约 1/10 的成本达到了 DeepSeek-R1 与 o3-mini-high 之间的性能。

在线体验:

chat.qwen.ai
huggingface.co/spaces/Qwen...

参考链接:

1\][qwenlm.github.io/blog/qwq-32...](https://link.juejin.cn?target=https%3A%2F%2Fqwenlm.github.io%2Fblog%2Fqwq-32b%2F "https://qwenlm.github.io/blog/qwq-32b/") \[2\][x.com/Alibaba_Qwe...](https://link.juejin.cn?target=https%3A%2F%2Fx.com%2FAlibaba_Qwen%2Fstatus%2F1897366093376991515 "https://x.com/Alibaba_Qwen/status/1897366093376991515") --- **完** ---

相关推荐
Ronin-Lotus4 小时前
深度学习篇---剪裁&缩放
图像处理·人工智能·缩放·剪裁
cpsvps5 小时前
3D芯片香港集成:技术突破与产业机遇全景分析
人工智能·3d
国科安芯5 小时前
抗辐照芯片在低轨卫星星座CAN总线通讯及供电系统的应用探讨
运维·网络·人工智能·单片机·自动化
AKAMAI5 小时前
利用DataStream和TrafficPeak实现大数据可观察性
人工智能·云原生·云计算
Ai墨芯1116 小时前
深度学习水论文:特征提取
人工智能·深度学习
无名工程师6 小时前
神经网络知识讨论
人工智能·神经网络
nbsaas-boot6 小时前
AI时代,我们更需要自己的开发方式与平台
人工智能
SHIPKING3936 小时前
【机器学习&深度学习】LLamaFactory微调效果与vllm部署效果不一致如何解决
人工智能·深度学习·机器学习
jonyleek7 小时前
如何搭建一套安全的,企业级本地AI专属知识库系统?从安装系统到构建知识体系,全流程!
人工智能·安全
MQ_SOFTWARE8 小时前
AI驱动的金融推理:Fin-R1模型如何重塑行业决策逻辑
人工智能·金融