阿里巴巴 QwQ-32B真的超越了 DeepSeek R-1吗?

                                                    图表图片由阿里巴巴提供

本文作者的观点:QwQ-32B 作为小型开源 AI 模型,在数学、编程等任务上表现接近甚至超越 DeepSeek-R1 671B模型,同时计算资源占用大幅降低,使其更易部署和使用。然而,在逻辑推理等方面仍存在推理不一致和语言混杂等问题,有待优化。作者总体认可 QwQ-32B 的实力,并认为它代表了 AI 发展向"小而高效"方向演进的趋势,可能冲击 OpenAI 等收费模式的市场格局。

DeepSeek R-1 才刚刚发布两个月,我当时真的很兴奋,因为 AI 社区终于有了一个能与 OpenAI 的强大 o1 模型抗衡的开源模型。

然而就在昨天,阿里巴巴发布了另一个开源模型,功能与 DeepSeek R-1 相当,但体量却小了 20 倍。

这家中国科技巨头推出的新推理模型 QwQ-32B 仅使用 320 亿参数,而 DeepSeek 的参数量为 6710 亿,在推理过程中有 370 亿参数被实际调用。

自 2023 年推出首个大型语言模型以来,阿里巴巴大幅增加了对 AI 的投资。其云智能部门已成为主要增长动力,在 12 月季度对阿里巴巴的利润增长贡献显著。

                                                阿里巴巴集团控股有限公司 2025 年 3 月 5 日市值

"展望未来,由 AI 驱动的云智能集团收入增长将持续加速。" 阿里巴巴 CEO 吴泳铭最近表示。AI 发展潜力带来的乐观情绪得到了投资者的积极响应,QwQ-32B 发布后,阿里巴巴股价明显上涨。

QwQ-32B 的关键特性

QwQ-32B 采用强化学习(RL),即通过试错学习,而非传统的监督训练方式。这样做的主要优势是,它所需的资源远远少于 DeepSeek-R1(QwQ-32B 仅 320 亿参数,而 DeepSeek-R1 拥有 6710 亿参数,其中约 370 亿实际参与推理)。

尽管体量更小,QwQ-32B 在某些任务上却能达到甚至略微超越更大模型的表现。

以下是其关键特性概览:

• 类型:因果语言模型

• 训练阶段:预训练 & 后训练(监督微调和强化学习)

• 架构:采用 RoPE、SwiGLU、RMSNorm 和 Attention QKV 偏置的 Transformer

• 参数数量:325 亿

• 非嵌入参数数量:310 亿

• 层数:64

• 注意力头数(GQA):Q 40,KV 8

• 上下文长度:完整 131,072 令牌

强化学习(RL)为何重要

阿里巴巴选择 RL 训练 QwQ-32B 的决定至关重要。RL 让模型能直接从现实世界的反馈中学习,提高准确性和适应性。阿里巴巴在两个阶段中实施了这一方法:

• 初期专注于数学和编程:第一阶段,QwQ-32B 通过直接测试数学问题和编程任务学习,并通过实际计算和代码执行验证结果。

• 扩展至通用能力:在掌握特定技能后,阿里巴巴扩大训练范围,使模型在遵循指令、优化用户交互等方面表现更好。

这种强化学习方法显著提升了模型的效率,同时没有牺牲性能。

性能测试结果

在多个基准测试中,QwQ-32B 取得了出色表现:

• 数学任务:在 AIME24 等高难度数学测试中表现与 DeepSeek-R1 持平。

• 编程任务:在 LiveCodeBench 等代码基准测试中,QwQ-32B 取得了与 DeepSeek-R1 相近的分数。

• 通用任务:在指令跟随和工具使用测试中,QwQ-32B 略微优于 DeepSeek-R1。

下方是 QwQ-32B 与其他领先模型(包括 DeepSeek-R1-Distilled-Qwen-32B、DeepSeek-R1-Distilled-Llama-70B、o1-mini 以及原版 DeepSeek-R1)的对比表现。

                       QwQ-32B 与其他模型的对比,包括 DeepSeek-R1-Distilled-Qwen-32B、DeepSeek-R1-Distilled-Llama-70B、o1-mini 和原版 DeepSeek-R1

这些基准测试显示,该模型在实际应用中的可行性,适用于多种真实场景。

但它在现实世界中表现如何?

人工智能与数据专家 Ana Rojo Echeburúa(应用数学博士)对 QwQ-32B 进行了数学、编程和逻辑推理测试。

草莓测试

提示:"'strawberry' 这个单词中字母 'r' 出现了几次?"

                                                          QwQ-32B 回答

尽管 QwQ-32B 准确计算出了字母的数量,但它错误地指出了字母的位置,尽管题目并未明确要求这一点。这突显了该模型偶尔会提供不必要的细节,并在推理上存在一定的不准确性。

数学推理测试

提示:"边长为 3、4、5 的三角形面积是多少?"

                                                    QwQ-32B 回答

该模型正确回答出面积为 6,并清晰地解释了多种求解方法,展现了清晰且直接的推理过程。然而,它在格式和公式呈现上存在一些不一致之处。

逻辑推理测试

经典"狼、山羊和白菜"问题

提示:"一个人要带着狼、山羊和白菜过河。船每次只能载一个物品。如果单独留下,狼会吃山羊,山羊会吃白菜。请问他如何安全地把它们带过河?"

                                                    QwQ-32B 回答

QwQ-32B 提供了一个大体正确的解决方案,但令人困惑的是,它声称需要六个步骤,而实际只列出了五个。其推理过程较为详细,但也出现了一些问题,包括语言混杂------英文推理中夹杂了中文文本,使部分内容难以理解。有趣的是,推理部分包含了一套完整且准确的逐步解决方案,但与最终总结的答案并不匹配。

对开发者和企业的实际影响

QwQ-32B 的高效性让先进 AI 技术更容易普及。相比 DeepSeek-R1 需要高达 1600GB 的 GPU 显存,QwQ-32B 仅需 24GB,使企业无需庞大的计算基础设施即可部署强大 AI 工具。

此外,该模型采用 Apache 2.0 许可证开源,企业可以自由修改和使用,适用于自动化、软件开发、数据分析等多个场景。

AI 社区对 QwQ-32B 的初步反应总体积极,特别是开发者们称赞其高效性和易部署性。例如,来自 Hugging Face 的 Vaibhav Srivastav 赞扬了 QwQ-32B 的速度和易用性。

如何访问 QwQ-32B

目前有多种方式可访问和测试 QwQ-32B:

• 专用演示应用:Hugging Face Demo

• 直接下载模型:开发者和研究人员可从 Hugging Face 仓库下载 QwQ-32B 进行深入研究。

• 在线界面:阿里巴巴通过官方 Qwen Chat 提供交互平台。

                                            Qwen 官方网站界面截图

Hugging Face 界面截图

此外,预计 OIlama 等工具很快也会支持 QwQ-32B,让开发者能够更方便地使用本地化部署方式。

最终感想

我真的对 QwQ-32B 这样的开源 AI 模型出现的速度感到震撼------甚至有点不知所措。这一发展表明 OpenAI 采用的高价订阅模式可能很快会过时,因为高质量的开源替代方案正变得越来越普及。

像 QwQ-32B 这样的模型展示了 AGI(通用人工智能)发展的包容性,使 AI 不再只是少数人能负担得起的昂贵工具。

当然,仍有许多方面值得探索,特别是这些小型但强大的模型在实际环境中的表现如何。我计划在搭载 M3 芯片的 MacBook 上测试 QwQ-32B,并在后续文章中分享详细结果。

QwQ-32B 预览版的优势令人印象深刻,但推理和最终答案的矛盾性仍有待改进。总体而言,这可能预示着 AI 领域向更小、更高效模型转型的新趋势。

你试用过这个新模型了吗?如果有,我很想听听你的想法。

相关推荐
果冻人工智能5 天前
机器人技术的突破让OpenAI过时了
#人工智能·#ai应用·#ai员工·#神经网络·#ai
果冻人工智能6 天前
GPT-4.5 感觉有点拉胯,但其实是 OpenAI 迄今为止最大的一步赌注
#人工智能·#ai员工·#神经网络·#ai
果冻人工智能10 天前
震撼揭秘:LLM幻觉如何颠覆你的认知!
#人工智能·#ai员工·#ai
果冻人工智能13 天前
掌握领域驱动微服务中的聚合与实体
#人工智能·#ai代理·#ai应用·#ai员工·#神经网络·#ai
果冻人工智能14 天前
Featurewiz-Polars:一种强大且可扩展的特征选择解决方案,适用于XGBoost
#人工智能·#ai员工·#神经网络·#ai
果冻人工智能15 天前
DeepSeek R1 简明指南:架构、训练、本地部署及硬件要求
#人工智能·#ai员工·#神经网络·#ai
果冻人工智能23 天前
如何训练LLM“思考”(像o1和DeepSeek-R1一样, 高级推理模型解析
#人工智能·#ai代理·#ai应用·#ai员工·#神经网络·#ai
果冻人工智能1 个月前
Transformer-Squared:停止微调 LLMs
#人工智能·#ai员工
果冻人工智能1 个月前
从 Windows Forms 到微服务的经验教训
#人工智能·#ai应用·#ai员工·#神经网络·#ai