MacOS 10.15上能跑大语言模型吗?

MacOS 10.15上能跑大语言模型吗?

MacOS 10.15.7(发布于2020年9月)作为已经发布了将近5年的系统版本能够运行当今流行的大语言模型吗?这篇文章简要介绍了在MacOS 10.15上通过Ollama运行deepseek-r1模型的过程。

下载安装Ollama

Ollama是一个开源工具,可以帮助我们在本地快速部署和运行大语言模型。访问Ollama官网,可以看到它支持三大主流操作系统Windows、Linux和Mac。macOS需要macOS 11 Big Sur或更高版本。
忽略这个提示下载后,发现可以正常安装Ollama 0.6.5版本在MacOS 10.15上(实践出真知啊)。安装后运行Ollama会引导我们去进一步安装Ollama的命令行。

命令行工具安装完成后,就可以在终端里使用 ollama 命令了。

运行大语言模型

打开终端输入下面的命令

ollama run deepseek-r1:14b

这条命令会下载并运行大约9GB左右的deekseep-r1 14b的大模型。下载完成后,在ollama命令行中输入文字就可以向deepseek提出各种问题了。于是我敲下了我的问题 1加1等于几

接着电脑进入了近乎无响应的状态,鼠标和键盘响应速度非常慢,CPU占用率非常高。我就这样让deepseek肆意的跑了20多分钟,最终在屏幕上得到了四五个汉字输出,看起来deepseek还在努力的工作,但我已经无法忍受了。调出任务管理器杀掉了ollama进程,电脑恢复正常。

是不是我的问题太复杂了,导致deepseek需要消耗很多的资源?于是我简化了我的问题,直接把这个算式 1+1=? 给到deepseek。用电脑计算器是可以瞬间得到正确答案的,但deepseek好像还是把问题想复杂了,在苦苦等待N分钟后,电脑死机了。

难道这台产于2012年的Macbook Pro真的没法运行大语言模型吗?突然想到deepseek还有参数量更小的模型。于是输入下面的命令去下载并运行最小参数量的deepseek-r1模型。

ollama run deepseek-r1:1.5b

同样的问题给到deepseek,这一次很快得到了deepseek的答复。

看来只要选择合适的模型,MacOS 10.15也是能跑起来大语言模型的。

引申出的问题

  • 如何挑选合适的大模型呢?

    Ollama的library页面 能找到它支持的所有模型,这么多模型该如何挑选呢?通过进一步的调研,我了解到不同的大模型对硬件资源(显存、内存、CPU)的需求是不同的。不同的模型有不同的特性,有些模型还会依赖特定的CPU,比如AMD的GAIA。选择合适的大模型也是有学问的呢。

  • 为什么我手头的Macbook Pro 2012运行不了deepseek-r1:14b呢?什么电脑能运行14b的模型呢?

    Macbook Pro 2012 硬件手册中查到硬件配置:4核CPU、集成显卡和Nvidia显卡(1GB显存)智能切换、 8GB内存。和近几年的苹果电脑比确实有很大的差距。Macbook Pro 2022 可以轻松运行14b的deepseek-r1,硬件配置:8核CPU、10核GPU、16核神经网络引擎、24GB内存。估计2025年的电脑运行大模型应该有更好的效果。

  • 本地电脑运行起来的大模型有什么用呢?

    deepseek、chatgpt等等都可以在网页里运行,有什么必要在本地电脑运行大模型呢?后续再讲吧 : - )

相关推荐
卷福同学2 小时前
【养虾日记】Openclaw操作浏览器自动化发文
人工智能·后端·算法
春日见2 小时前
如何入门端到端自动驾驶?
linux·人工智能·算法·机器学习·自动驾驶
光锥智能2 小时前
从自动驾驶到 AI 能力体系,元戎启行 GTC 发布基座模型新进展
人工智能
luoganttcc2 小时前
自动驾驶 世界模型 有哪些
人工智能·机器学习·自动驾驶
潘高2 小时前
10分钟教你手撸一个小龙虾(OpenClaw)
人工智能
禁默3 小时前
光学与机器视觉:解锁“机器之眼”的核心密码-《第五届光学与机器视觉国际学术会议(ICOMV 2026)》
人工智能·计算机视觉·光学
深小乐3 小时前
不是DeepSeek V4!这两个神秘的 Hunter 模型竟然来自小米
人工智能
laozhao4323 小时前
科大讯飞中标教育管理应用升级开发项目
大数据·人工智能
rainbow7242443 小时前
AI人才简历评估选型:技术面试、代码评审与项目复盘的综合运用方案
人工智能·面试·职场和发展
张张123y3 小时前
RAG从0到1学习:技术架构、项目实践与面试指南
人工智能·python·学习·面试·架构·langchain·transformer