号称地表最强的 M3 Ultra ,本地跑满血版 DeepSeek R1,效果到底如何?
其实,有些 DeepSeek 玩家们已经提前拿到手做过实测了。
例如这位 Alex 老哥就是其中之一:
他提前拿到了两台搭载 M3 Ultra 的 Mac Studio,配置是这样的:
-
M3 Ultra(32 核中央处理器、80 核图形处理器和 32 核神经网络引擎)
-
512G 统一内存
-
1TB 固态硬盘
具体来说,Alex 老哥用配备 Thunderbolt 5 互连技术(传输速率为 80Gbps)的 EXO Labs 设备,来运行完整的 DeepSeek R1 模型(671B、8-bit)。
Alex 老哥表示,两台 Mac Studio 本地跑满血版 DeepSeek R1,实际速度是 11 tokens / 秒,理论上可以达到 20 tokens / 秒。
至于价格嘛,一台上述配置的 Mac Studio 是 74249 元 ,两台就是小 15 万元。
或许很多小伙伴觉得这个价格有点略贵。
但在 M3 Ultra 之前啊,如果你想在本地使用显卡来推理 V3 或 R1,那么就得起码需要 6、7 张 A100...... 大约小 100 万元。
也正因如此,也有不少网友认为搭载 M3 Ultra 的 Mac Studio,堪称是 "性价比最高的大模型一体机"。
值得注意的是,苹果这次似乎是主动给 DeepSeek 玩家们提前发货,有种让他们赶紧测一测的意味。
毕竟在发布之际,苹果就强调了可以在 M3 Ultra 版 Mac Studio 中跑超过 6000 亿参数的大模型。
掀起一波本地跑 DeepSeek 的风
其实在 M3 Ultra 版 Mac Studio 发布前后,已经有不少人做过类似的评测。
例如 B 站博主 "虽然但是张黑黑" 的测试结果是:
-
15.78 tokens / 秒:采用 Ollama 的 GGUF 格式
-
19.17 tokens / 秒:采用更适合苹果的 MLX 格式
这个速度已经跟在线使用 DeepSeek R1 的速度相媲美了。
除此之外,像外网博主 Xcreate 还把 M3 Ultra 版 Mac Studio 和 M4 Max 版 Macbook Pro 的拉到一个 "擂台" 做了比较。
首先从性能上来看,Geekbench 测试的结果显示,M3 Ultra 在 CPU 性能方面与 M4 Max 非常接近,但 M3 Ultra 略胜一筹。
在本地运行大模型测试方面,博主在运行基于 Llama 的 DeepSeek R1 70B 模型时,M3 Ultra 的速度为 11.3 tokens/ 秒,而 M4 Max 测试结果为 10.69 tokens / 秒,差距并不是很大。
但更重要的是测试满血版 DeepSeek R1 的结果。
对此,博主认为在本地完整运行 671B 的 DeepSeek 是有点困难的,因为已经有人宣告失败。
但也有成功的例子。
他举例另一位评测人员的结果,显示是运行 8bit 量化版本的 DeepSeek R1,得到了 9-21 tokens / 秒的速度。
而在 4bit 量化版情况下,速度为 16-18 tokens / 秒。
至于为什么体量更大的 671B 的 DeepSeek,会比 70B 运行速度更快,是因为 DeepSeek 将 671B 模型分片为 "专家混合体",实际运行时根据问题切换,类似运行 30B 的模型。
最后,博主也提醒想要在本地运行大模型的友友们,网传苹果将在今年 WWDC 上发布 M4 Ultra,所以可以再观望一下。
参考链接:
[2]www.bilibili.com/video/BV1nk...
--- 完 ---