承接上一篇内容:我们完整介绍了 MiniMind 项目核心价值、硬件成本、模型体量与全流程能力,打破了「大模型训练只能依赖超算、高额算力」的固有认知。
理论聊再多,不如动手落地。本篇调整连载顺序,优先实操,带领大家完成 MiniMind 全平台环境搭建,适配 Windows / Linux 双系统,全程轻量化配置、规避依赖冲突、Git 下载超时、CUDA 不匹配等新手高频坑点。
不用云服务器、无需高端显卡,本地电脑、轻薄本、家用主机都能完成部署,为后续源码解析、模型预训练、SFT 微调打好基础。
一、整体前置要求
1.1 硬件门槛(极低)
- CPU 运行:纯 CPU 即可跑通推理、测试、简单训练,无硬性要求
- GPU 推荐:NVIDIA 独立显卡,显存 ≥4G 即可运行 26M 小模型;≥8G 流畅训练
- 无 A100/3090 强制要求,个人消费级显卡完美兼容
1.2 软件基础要求
- Python 版本:3.9 ~ 3.11(项目限定版本,过高 / 过低会报错)
- Git 工具:用于拉取源码
- 虚拟环境工具:Conda / Venv(推荐 Conda,环境隔离更稳定)
- CUDA(可选):N 卡用户按需安装,加速训练与推理
二、第一步:拉取 MiniMind 源码
2.1 全局安装 Git
Windows 直接安装 Git For Windows,Linux 一般系统自带 Git,无需额外配置。
2.2 克隆项目源码
打开终端 / CMD / PowerShell,执行拉取命令:
# 原版拉取
git clone https://github.com/jingyaogong/minimind.git
# 国内下载慢、超时专用(镜像加速)
git clone https://gitee.com/mirrors/minimind.git
进入项目根目录:
cd minimind
建议操作:目录路径不要包含中文、空格、特殊符号,避免后续代码读取路径报错。
三、第二步:搭建隔离虚拟环境
全局安装依赖极易造成版本冲突,LLM 项目统一推荐使用虚拟环境。
3.1 Linux / Windows 通用 Conda 方案
1. 创建专属环境
# 创建python3.10环境(兼容性最优)
conda create -n minimind python=3.10 -y
# 激活环境
# Windows
conda activate minimind
# Linux / MacOS
source activate minimind
2. 验证环境
激活后终端前缀会显示 (minimind),代表环境搭建成功,后续所有依赖全部安装在该独立环境中。
3.2 极简备选:系统自带 Venv
无 Conda 的用户可使用原生 venv:
# Windows
python -m venv venv
venv\Scripts\activate
# Linux
python3 -m venv venv
source venv/bin/activate
四、第三步:批量安装项目依赖
项目根目录自带 requirements.txt,统一管理所有依赖库。
4.1 换国内源(必做,解决下载慢)
# pip 临时使用清华源安装
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
4.2 核心依赖简单解读(看懂技术底层)
摒弃无脑装包,简单说明关键依赖作用,建立技术认知:
- torch / torchvision:核心深度学习框架,模型训练、推理底层支撑
- transformers:轻量化调用 Tokenizer 与基础模型组件
- datasets:数据集加载、预处理、批量读写
- accelerate:轻量化分布式训练、混合精度加速
- sentencepiece:大模型专用分词器,MiniMind 词表训练依赖
- matplotlib / tqdm:训练可视化、进度条监控
五、第四步:PyTorch & CUDA 精准适配
这是90% 新手配置失败的核心原因。单纯安装 requirements 中的 torch 大概率是 CPU 版本,无法调用显卡。
5.1 查看本机 CUDA 版本
N 卡用户执行:
nvidia-smi
根据输出的 CUDA 版本,前往 PyTorch 官网安装对应版本 GPU 加速 torch。
5.2 覆盖安装 GPU 版 PyTorch
示例(CUDA 12.1 通用版本):
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
5.3 校验 CUDA 是否生效
执行以下代码,验证显卡调用能力:
import torch
print(torch.cuda.is_available()) # 返回 True 代表配置成功
print(torch.cuda.device_count()) # 识别显卡数量
六、第五步:MiniMind 项目目录结构解析
搭建完环境,快速看懂源码目录,后续阅读、修改、调试代码更轻松:
minimind/
├── config/ # 模型配置文件:层数、维度、上下文窗口、超参数
├── data/ # 数据集、分词器、训练数据缓存目录
├── model/ # 核心模型源码:Decoder、RoPE、RMSNorm、MoE 实现
├── train/ # 全流程训练脚本:预训练、SFT、DPO、LoRA
├── inference/ # 推理脚本:本地对话、批量生成、接口部署
├── utils/ # 工具函数:日志、权重加载、数据处理
└── requirements.txt # 依赖清单
整个项目结构高度解耦、轻量化、模块化,没有冗余代码,也是非常适合二次开发、自定义改造的核心优势。
七、第六步:全局环境完整性校验
进入项目根目录,执行简易测试脚本,一键排查所有配置问题:
# test_env.py 快速校验
import torch
import sentencepiece
import transformers
import datasets
print("torch版本:", torch.__version__)
print("cuda可用:", torch.cuda.is_available())
print("sentencepiece 正常加载")
print("所有依赖环境校验完成!")
无报错、正常输出版本信息,代表 MiniMind 本地环境100% 部署完成。
八、高频报错一站式解决方案
结合大量实测,整理部署阶段最容易遇到的问题:
-
GitHub 克隆超时解决方案:使用 Gitee 镜像地址拉取源码,避开国外网络限制。
-
依赖安装失败、版本冲突解决方案:必须使用虚拟环境,不要在全局 Python 安装依赖;统一使用清华源。
-
torch.cuda.is_available () 返回 False解决方案:手动卸载原有 torch,安装与本机 CUDA 匹配的 GPU 版本。
-
Windows 权限不足 / 路径报错解决方案:项目文件夹放置在纯英文路径,以管理员身份运行终端。
-
Python 版本不兼容解决方案:锁定 3.10 版本,不要使用 3.12 及以上新版本。
九、下篇内容预告
本篇我们完成了全平台环境搭建,从零配置好 MiniMind 运行环境,解决了前期所有落地障碍。
下一篇(第 3 篇),我们回归技术内核:深度拆解 MiniMind 核心架构,逐行解析 Decoder 结构、RoPE 旋转位置编码、RMSNorm、SwiGLU 激活函数等大模型底层核心模块,彻底读懂小尺寸 LLM 的设计逻辑。
十、写在最后
很多人学习大模型,一上来就死磕复杂公式、晦涩论文,半途而废。本系列采用 「先实操、后原理、再深度优化」 的学习逻辑,先跑通项目、建立体感,再拆解底层逻辑,学习效率翻倍。
MiniMind 最大的优势就是轻量化、透明化、全开源,没有黑盒封装,每一段代码都值得新手深入研究。
环境搭建完成,你已经拿到了入门小 LLM 的入场券,跟随本系列持续更新,手把手带你从零手写、训练、部署专属小模型。