Llama2模型本地部署(Mac M1 16G)

环境准备

环境:Mac M1 16G、Conda

Conda创建环境配置

使用Anaconda-Navigator创建python 3.8环境

切换到新建的conda环境:

bash 复制代码
conda activate llama38

llama.cpp

找一个目录,下载llama.cpp

bash 复制代码
git clone https://github.com/ggerganov/llama.cpp

进入llama.cpp目录

bash 复制代码
cd llama.cpp

安装依赖环境

bash 复制代码
pip install -r requirements.txt

编译代码

bash 复制代码
LLAMA_METAL=1 make

下载中文模型 chinese-alpaca-2-7b-64k-hf,可以去下面的地址查找GitHub - ymcui/Chinese-LLaMA-Alpaca-2: 中文LLaMA-2 & Alpaca-2大模型二期项目 + 64K超长上下文模型 (Chinese LLaMA-2 & Alpaca-2 LLMs with 64K long context models)

我这边选用的7b模型,再大就不好运行起来了

下载后放置在llama.cpp/models目录下

模型转换

bash 复制代码
python convert.py models/chinese-alpaca-2-7b-64k-hf/

量化模型

bash 复制代码
./quantize ./models/chinese-alpaca-2-7b-64k-hf/ggml-model-f16.gguf ./models/chinese-alpaca-2-7b-64k-hf/ggml-model-q4_0.gguf q4_0

Server方式启动, host和port可选, 不写则启动127.0.0.1 8080

bash 复制代码
./server --host 0.0.0.0 --port "$port" -m ./models/chinese-alpaca-2-7b-64k-hf/ggml-model-q4_0.gguf -c 4096 -ngl 1

启动成功直接打开页面,我这边没有指定host和port,http://localhost:8080/

开始对话

相关推荐
啊阿狸不会拉杆1 分钟前
告别API碎片化!用AI Ping一键白嫖MiniMax-M2、GLM-4.6与Kimi-K2——清程极智打造的AI路由神器实战指南
人工智能·vscode·ai·语言模型·api
草明18 分钟前
MacOS 在使用 docker: no space left on device: unknown
macos·docker
范男14 小时前
Qwen3-VL + LLama-Factory进行针对Grounding任务LoRA微调
人工智能·深度学习·计算机视觉·transformer·llama
后端研发Marion15 小时前
【Gemini 3 技术深度解析:架构、性能与生态应用】
ai·大模型·llm·ai编程·gemini3
HyperAI超神经16 小时前
在线教程丨30毫秒处理100个检测对象,SAM 3实现可提示概念分割,性能提升2倍
人工智能·计算机视觉·ai·图像分割·sam 3
镇潮16 小时前
Cursor 接入 mysql mcp
数据库·mysql·ai
哥布林学者18 小时前
吴恩达深度学习课程四:计算机视觉 第一周:卷积基础知识(四)池化操作与卷积中的反向传播
深度学习·ai
大城市里的小麻雀19 小时前
ragflow在linux系统中下载镜像一直卡着不动
python·ai
落樱弥城20 小时前
Compute Shader概论
ai·图形学·opengl
DO_Community20 小时前
DigitalOcean 远程 MCP 正式上线,让基础设施“开口说话”
ai·agent·mcp