【自然语言处理与大模型】Ollama拉取huggingface社区或modelscope社区的GGUF模型并部署

huggingface社区和魔塔社区上的gguf模型现在都支持了ollama部署模型。本文做一个简单的使用总结,详细的官方文档我放在文末。

一、快速使用命令

(1)huggingface

ollama拉取并部署gguf模型命令

bash 复制代码
# hf.co是huggingface社区
# username/repository是模型在社区的路径
ollama run hf.co/{username}/{repository}

国内用户可以将hf.co改成hf-mirror.com

bash 复制代码
ollama run hf-mirror.com/{username}/{repository}

拉取带量化的gguf模型

bash 复制代码
# 命令
ollama run hf.co/{username}/{repository}:{quantization}
# 以千问模型为例
ollama run hf.co/Qwen/Qwen2.5-1.5B-Instruct-GGUF:Q2_K

实际跑一下命令,发现huggingface社区拉取GGUF模型巨慢无比!

(2)modelscope

首推国内的魔塔社区,下载快的多!进入社区的模型库,找到要下载的模型。

点击"下载模型"后,再点击"操作指引"。

在左侧导航栏中找到Ollama加载ModelScope模型,就能看到命令。

二、官方说明文档

Ollama如何在HuggingFaceHub里使用任何GGUF模型https://huggingface.co/docs/hub/en/ollama#use-ollama-with-any-gguf-model-on-hugging-face-hubOllama加载ModelScope模型https://www.modelscope.cn/docs/models/advanced-usage/ollama-integration

相关推荐
扫地的小何尚1 分钟前
什么是大型语言模型
人工智能·语言模型·自然语言处理·机器人·gpu·nvidia
bugmaker.6 分钟前
大语言模型的常用微调方法
人工智能·语言模型·自然语言处理
宝贝儿好22 分钟前
【NLP】第六章:位置编码Positional Encoding
人工智能·深度学习·机器学习·自然语言处理·nlp
CSBLOG25 分钟前
Day26下 - 大语言模型的 训练train 和 微调fine-tune 的区别
人工智能·学习·语言模型
牧歌悠悠26 分钟前
【深度学习】零基础介绍循环神经网络(RNN)
人工智能·rnn·深度学习
新知图书29 分钟前
R语言函数简介
开发语言·python·r语言
君逸~~33 分钟前
环境搭建——CUDA、Python、Pytorch
开发语言·人工智能·pytorch·python·深度学习
AI完全体35 分钟前
【AI日记】24.12.18 kaggle 比赛 2-7
人工智能·机器学习·kaggle 比赛
wang_yb36 分钟前
从混沌到秩序:Python的依赖管理工具分析
python·databook
engchina42 分钟前
PyCharm 中打印完整的 DataFrame
ide·python·pycharm·dataframe