Llama2模型本地部署(Mac M1 16G)

环境准备

环境:Mac M1 16G、Conda

Conda创建环境配置

使用Anaconda-Navigator创建python 3.8环境

切换到新建的conda环境:

bash 复制代码
conda activate llama38

llama.cpp

找一个目录,下载llama.cpp

bash 复制代码
git clone https://github.com/ggerganov/llama.cpp

进入llama.cpp目录

bash 复制代码
cd llama.cpp

安装依赖环境

bash 复制代码
pip install -r requirements.txt

编译代码

bash 复制代码
LLAMA_METAL=1 make

下载中文模型 chinese-alpaca-2-7b-64k-hf,可以去下面的地址查找GitHub - ymcui/Chinese-LLaMA-Alpaca-2: 中文LLaMA-2 & Alpaca-2大模型二期项目 + 64K超长上下文模型 (Chinese LLaMA-2 & Alpaca-2 LLMs with 64K long context models)

我这边选用的7b模型,再大就不好运行起来了

下载后放置在llama.cpp/models目录下

模型转换

bash 复制代码
python convert.py models/chinese-alpaca-2-7b-64k-hf/

量化模型

bash 复制代码
./quantize ./models/chinese-alpaca-2-7b-64k-hf/ggml-model-f16.gguf ./models/chinese-alpaca-2-7b-64k-hf/ggml-model-q4_0.gguf q4_0

Server方式启动, host和port可选, 不写则启动127.0.0.1 8080

bash 复制代码
./server --host 0.0.0.0 --port "$port" -m ./models/chinese-alpaca-2-7b-64k-hf/ggml-model-q4_0.gguf -c 4096 -ngl 1

启动成功直接打开页面,我这边没有指定host和port,http://localhost:8080/

开始对话

相关推荐
念风零壹11 小时前
AI 时代的前端技术:从系统编程到 JavaScript/TypeScript
前端·ai
肖永威12 小时前
macOS环境安装/卸载python实践笔记
笔记·python·macos
懒虫虫~12 小时前
利用自定义Agent-Skill实现项目JDK17升级
ai·skill
AI架构全栈开发实战笔记13 小时前
Eureka 在大数据环境中的性能优化技巧
大数据·ai·eureka·性能优化
大厂资深架构师13 小时前
Spring Cloud Eureka在后端系统中的服务剔除策略
spring·spring cloud·ai·eureka
AI架构全栈开发实战笔记13 小时前
Eureka 对大数据领域服务依赖关系的梳理
大数据·ai·云原生·eureka
阿杰学AI14 小时前
AI核心知识91——大语言模型之 Transformer 架构(简洁且通俗易懂版)
人工智能·深度学习·ai·语言模型·自然语言处理·aigc·transformer
geovindu16 小时前
CSharp:简单本地调用deepseek-r1:1.5b 模型 using .net9.0
llama
shengnan_wsn16 小时前
【一】【ai基础】【大模型和智能体初识】
ai
nimadan1216 小时前
**AI仿真人剧制作工具2025推荐,解锁沉浸式内容创作新范
ai