1.网页下载
直接访问Hugging Face模型页面,点击"File and versions"选项卡,选择所需的文件进行下载。

2.使用huggingface-cli
首先,安装huggingface_hub:
bash
pip install huggingface_hub
然后,使用以下命令下载模型:
bash
huggingface-cli download --resume-download --local-dir-use-symlinks False <model name> --local-dir <local_dir>
将<model name>替换为模型的名称(网页页面中可以直接复制)
local_dir:本地保存模型的目录路径
3.使用Git克隆
对于支持Git的模型,直接使用Git克隆模型仓库,但是不支持断点重建,模型较大时容易出现问题。命令如下:
bash
git clone https://huggingface.co/<model name>
4.使用llama下载模型
如果使用llama.cpp工具下载模型,可以直接从huggingface下载支持的模型:
bash
git lfs install git clone https://huggingface.co/<model name> ./models/<model_name>
5.使用Ollama下载模型
如果使用Ollama工具下载模型,可以使用以下命令下载模型:
bash
ollama pull <model_name>