下载Hugging Face模型的几种方式

1.网页下载

直接访问Hugging Face模型页面,点击"File and versions"选项卡,选择所需的文件进行下载。

2.使用huggingface-cli

首先,安装huggingface_hub:

bash 复制代码
pip install huggingface_hub

然后,使用以下命令下载模型:

bash 复制代码
huggingface-cli download --resume-download --local-dir-use-symlinks False <model name> --local-dir <local_dir>

将<model name>替换为模型的名称(网页页面中可以直接复制)
local_dir:本地保存模型的目录路径

3.使用Git克隆

对于支持Git的模型,直接使用Git克隆模型仓库,但是不支持断点重建,模型较大时容易出现问题。命令如下:

bash 复制代码
git clone https://huggingface.co/<model name>

4.使用llama下载模型

如果使用llama.cpp工具下载模型,可以直接从huggingface下载支持的模型:

bash 复制代码
git lfs install git clone https://huggingface.co/<model name> ./models/<model_name>

5.使用Ollama下载模型

如果使用Ollama工具下载模型,可以使用以下命令下载模型:

bash 复制代码
ollama pull <model_name>
相关推荐
van叶~5 分钟前
Linux网络-------3.应⽤层协议HTTP
linux·网络·http
花小璇学linux1 小时前
imx6ull-驱动开发篇5——新字符设备驱动实验
linux·驱动开发·imx6ull·嵌入式软件
饭碗的彼岸one1 小时前
重生之我在10天内卷赢C++ - DAY 1
linux·开发语言·c++·经验分享·笔记·学习方法
Asuicao1 小时前
ansible巡检脚本
linux·运维·ansible
被遗忘的旋律.1 小时前
Linux驱动开发笔记(五)——设备树(下)——OF函数
linux·驱动开发·笔记
Tipriest_2 小时前
Linux Flathub软件管理方法 使用指南
linux·flathub
pirateeee2 小时前
在Linux中创建LVGL应用
linux
Wezzer2 小时前
企业级部署 (基于tomcat与nginx)
linux·运维·服务器
Johny_Zhao3 小时前
centos8安装部署spug自动化运维管理平台
linux·信息安全·云计算·shell·yum源·系统运维·centos8·spug
看星星的小王子3 小时前
Linux基础(三)——Bash基础
linux·运维·bash