【自然语言处理与大模型】Ollama拉取huggingface社区或modelscope社区的GGUF模型并部署

huggingface社区和魔塔社区上的gguf模型现在都支持了ollama部署模型。本文做一个简单的使用总结,详细的官方文档我放在文末。

一、快速使用命令

(1)huggingface

ollama拉取并部署gguf模型命令

bash 复制代码
# hf.co是huggingface社区
# username/repository是模型在社区的路径
ollama run hf.co/{username}/{repository}

国内用户可以将hf.co改成hf-mirror.com

bash 复制代码
ollama run hf-mirror.com/{username}/{repository}

拉取带量化的gguf模型

bash 复制代码
# 命令
ollama run hf.co/{username}/{repository}:{quantization}
# 以千问模型为例
ollama run hf.co/Qwen/Qwen2.5-1.5B-Instruct-GGUF:Q2_K

实际跑一下命令,发现huggingface社区拉取GGUF模型巨慢无比!

(2)modelscope

首推国内的魔塔社区,下载快的多!进入社区的模型库,找到要下载的模型。

点击"下载模型"后,再点击"操作指引"。

在左侧导航栏中找到Ollama加载ModelScope模型,就能看到命令。

二、官方说明文档

Ollama如何在HuggingFaceHub里使用任何GGUF模型https://huggingface.co/docs/hub/en/ollama#use-ollama-with-any-gguf-model-on-hugging-face-hubOllama加载ModelScope模型https://www.modelscope.cn/docs/models/advanced-usage/ollama-integration

相关推荐
风象南14 小时前
普通人用AI加持赚到的第一个100块
人工智能·后端
牛奶14 小时前
2026年大模型怎么选?前端人实用对比
前端·人工智能·ai编程
牛奶14 小时前
前端人为什么要学AI?
前端·人工智能·ai编程
罗西的思考17 小时前
AI Agent框架探秘:拆解 OpenHands(10)--- Runtime
人工智能·算法·机器学习
冬奇Lab18 小时前
OpenClaw 源码精读(2):Channel & Routing——一条消息如何找到它的 Agent?
人工智能·开源·源码阅读
冬奇Lab18 小时前
一天一个开源项目(第38篇):Claude Code Telegram - 用 Telegram 远程用 Claude Code,随时随地聊项目
人工智能·开源·资讯
孟健19 小时前
Karpathy 用 200 行纯 Python 从零实现 GPT:代码逐行解析
python
格砸19 小时前
从入门到辞职|从ChatGPT到OpenClaw,跟上智能时代的进化
前端·人工智能·后端
可观测性用观测云19 小时前
可观测性 4.0:教系统如何思考
人工智能
sunny86519 小时前
Claude Code 跨会话上下文恢复:从 8 次纠正到 0 次的工程实践
人工智能·开源·github