M2 Mac mini跑Llama3

前言

在4-19左右,Meta 宣布正式推出下一代开源大语言模型Llama 3;共包括 80 亿和 700 亿参数两种版本,号称 "是 Llama 2 的重大飞跃",并为这些规模的 LLM 确立了新的标准。实际上笔者早就体验过,只不过自己电脑没什么显卡(核显),所以一直没跑llama,但是最近听说m2芯片可以运行,就体验了一下。

看图表8B的数据可以在本地运行,70B就不用想了。试了一下真的可行。

使用Ollama

ollama:Get up and running with large language models.实际上就是封装已经训练的模型数据,提供运行程序

分为ollama的安装,拉取模型数据,运行模型

安装很简单:Download Ollama on macOS

mac直接解压app,放在applications下,运行后点击install,输入密码即可,实际上是安装ollama指令。

模型文件:https://ollama.com/library

ollama pull llama3

根据电脑的配置情况,默认llama即8B模型,如果要运行70B:ollama run llama3:70b,估计需要64G内存,没这么大的,所以只跑了8B

然后执行run,有点docker的设计思想

ollama run llama3

基本上问答是英文,训练的语料估计主要是国外的,毕竟meta开源

总结

实际上就是本地体验一下,如果要调模型还是相对难一些,体验发现llama3主要是英文答复,不过8B模型在mac mini运行还是很快的,另外可以根据提示做一些Ollama的指令,关键的是load model和save model,可以载入和存储模型。

相关推荐
瑞行AI2 小时前
一套数据格式框架搞定大模型微调和对齐训练
算法·语言模型
kobesdu2 小时前
大语言模型与ROS集成的自然语言机器人控制:开源框架与应用实例
人工智能·语言模型·机器人
前端小超人rui2 小时前
Deepseek 的创新及计算速度快和成本低的原因
ai·语言模型·大模型·ai编程·deepseek
数智工坊3 小时前
【BLIP论文阅读】:统一视觉语言理解与生成的自举式预训练范式
论文阅读·人工智能·深度学习·算法·transformer
victory04313 小时前
DeepSeek-R1:通过强化学习激励大语言模型的推理能力 技术报告中文翻译
人工智能·语言模型·自然语言处理
前端小超人rui4 小时前
dashscope 介绍及使用(调用阿里云 AI 大模型的核心工具)
ai·语言模型·大模型调用
财经资讯数据_灵砚智能19 小时前
基于全球经济类多源新闻的NLP情感分析与数据可视化(夜间-次晨)2026年5月13日
大数据·人工智能·python·信息可视化·语言模型·自然语言处理
Forrit21 小时前
Agent 回退机制
transformer
HSunR21 小时前
神经网络 从函数到transformer学习笔记
神经网络·学习·transformer
沪漂阿龙1 天前
面试题:Transformer 模型详解——核心创新、编码器解码器结构、位置编码、因果掩码与大模型基础全解析
人工智能·深度学习·transformer