高端入门:Ollama 本地高效部署DeepSeek模型深度搜索解决方案

目录

[一、Ollama 介绍](#一、Ollama 介绍)

二、Ollama下载

[2.1 官网下载](#2.1 官网下载)

[2.2 GitHub下载](#2.2 GitHub下载)

三、模型库

[四、Ollmal 使用](#四、Ollmal 使用)

[4.1 模型运行(下载)](#4.1 模型运行(下载))

[4.2 模型提问](#4.2 模型提问)

[五、Ollama 常用命令](#五、Ollama 常用命令)

相关推荐


一、Ollama 介绍

Ollama是一个专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计的开源框架。以下是对Ollama的详细解释:

  • 简化部署:Ollama旨在简化在Docker容器中部署大型语言模型的过程,使得非专业用户也能方便地管理和运行这些复杂的模型。
  • 轻量级与可扩展:作为轻量级框架,Ollama保持了较小的资源占用,同时具备良好的可扩展性,允许用户根据需要调整配置以适应不同规模的项目和硬件条件。
  • 跨平台支持:Ollama提供针对macOS、Windows(预览版)、Linux以及Docker的安装指南,确保用户能在多种操作系统环境下顺利部署和使用。

二、Ollama下载

2.1 官网下载

Ollama 支持多平台部署,可以在官网,选择适合的平台进行下载,如下图:

2.2 GitHub下载

GitHub - ollama/ollama: Get up and running with Llama 3.3, DeepSeek-R1, Phi-4, Gemma 2, and other large language models.Get up and running with Llama 3.3, DeepSeek-R1, Phi-4, Gemma 2, and other large language models. - ollama/ollamahttps://github.com/ollama/ollamahttps://github.com/ollama/ollamahttps://github.com/ollama/ollamahttps://github.com/ollama/ollamahttps://github.com/ollama/ollama

三、模型库

Ollama 支持在ollama.com/search 上获取的模型列表,比如最近比较火的 deepseek-r1:

不同版本的模型所需内存大小也有所不同。例如在Ollama中部署DeepSeek-R1的不同版本(1.5b、7b、8b、14b、32b、70b、671b)所需的内存大小:

DeepSeek-R1版本 所需内存(大约) 备注
1.5b 1.1GB硬盘空间 内存需求相对较低
7b 4.7GB硬盘空间 内存和显存需求适中
8b 约4.9GB硬盘空间 显存占用约6.5GB左右
14b 约9GB硬盘空间 内存需求较高,建议至少8GB以上内存,显存占用约13GB
32b 约20GB硬盘空间 需要更高的内存和显存配置,建议至少32GB内存
70b 约43GB硬盘空间 需要非常大的内存和显存资源,适合高端配置
671b 约404GB硬盘空间 这是目前提到的最大版本,所需内存和显存资源将是所有版本中最高的

根据自身需要选择版本,如下是我之前下的几个模型的版本和所占内存大小:

四、Ollmal 使用

4.1 模型运行(下载)

打开命令终端,输入指令 ollama run xxxx(模型名称,如deepseek-r1),若是首次运行某个模型,Ollma 会先下载对应的模型文件,然后运行模型。

复制代码
//下载7b版本
ollama run deepseek-r1

//下载14b版本
ollama run deepseek-r1:14b

可以根据不同命令下载不同版本,怎么获取命令?你可以先选中模型的版本,ollama 会根据不同的版本生成命令,如下图所示:

4.2 模型提问

五、Ollama 常用命令

  • ollama serve:该命令用于启动Ollama服务器(在不运行桌面应用程序的情况下启动 ollama;),以便运行模型和处理请求。首次启动可能会生成ssh私钥文件,并提示服务端口状态。
  • ollama start:启动服务。
  • ollama list或ollama ls:列出本地所有可用的模型。
  • ollama ps:显示当前正在运行的模型列表。
  • ollama show [模型名称]:查看特定模型的详细信息,如模型名称、版本等。
  • ollama pull [模型名称]:从模型注册表中拉取一个模型到本地使用。此命令也可以用于更新本地模型,只会拉取差异部分。
  • ollama run [模型名称]。运行一个已安装的模型,执行某些任务。可以根据需要指定模型的参数和配置。
  • ollama create [模型路径]:使用包含模型信息的 [模型路径]来创建一个新模型。
  • ollama push [模型名称]:将本地模型推送到模型注册表中,以便他人或其他系统使用。
  • ollama cp [原模型名称] [新模型名称]:复制一个模型到另一个位置或给定名称的地方。
  • ollama rm [模型名称]:删除一个已安装的模型。
  • ollama -vollama --version:显示当前Ollama工具的版本信息。

相关推荐

Download Ollama on macOSDownload Ollama for macOShttps://ollama.com/downloadhttps://ollama.com/downloadhttps://ollama.com/downloadhttps://ollama.com/downloadhttps://github.com/ollama/ollamahttps://github.com/ollama/ollamahttps://github.com/ollama/ollamahttps://github.com/ollama/ollamahttps://github.com/ollama/ollamaNeo4j 图数据库安装与操作指南(以mac为例)_neo4j安装-CSDN博客文章浏览阅读1w次,点赞78次,收藏82次。本文介绍了Neo4j图数据库的安装、配置、启动以及基本操作方法。首先,需要满足Java环境的安装要求,并可选择使用Homebrew进行安装。然后,从官方网站下载Neo4j并解压,或通过Homebrew进行安装。配置Neo4j时,可设置环境变量以简化命令操作。启动Neo4j后,可通过Cypher查询语言进行节点、关系的创建、修改、匹配和删除等操作。本文还介绍了Neo4j的其他常用命令,如查询版本、服务状态、重启、停止和卸载等。_neo4j安装https://shuaici.blog.csdn.net/article/details/144115514https://shuaici.blog.csdn.net/article/details/144115514https://shuaici.blog.csdn.net/article/details/144115514https://shuaici.blog.csdn.net/article/details/144115514

相关推荐
九丘教育16 分钟前
【仓颉 + 鸿蒙 + AI Agent】CangjieMagic框架(17):PlanReactExecutor
人工智能·华为·harmonyos
L_cl1 小时前
【NLP 69、KG - BERT】
人工智能·自然语言处理·bert
白熊1883 小时前
【计算机视觉】CV实战项目- COVID 社交距离检测(covid-social-distancing-detection)
人工智能·opencv·计算机视觉
QQ_7781329745 小时前
Crawl4AI:重塑大语言模型数据供给的开源革命者
人工智能
(initial)6 小时前
第八章:探索新兴趋势:Agent 框架、产品与开源力量
人工智能·agent
美亚特直线轴承6 小时前
直线轴承在自动化机械设备中的应用
运维·人工智能·经验分享·笔记·机器人·自动化·制造
cosX+sinY7 小时前
1. ubuntu20.04 终端实现 ros的输出 (C++,Python)
人工智能·机器人·自动驾驶
乌旭9 小时前
边缘计算场景下的模型轻量化:TensorRT部署YOLOv7的端到端优化指南
人工智能·深度学习·yolo·transformer·边缘计算·gpu算力
avi91119 小时前
UE虚幻4虚幻5动画蓝图调试,触发FellOutOfWorld事件和打印输出,继续DeepSeek输出
虚幻·unreal·actor·deepseek·跌落判断
果冻人工智能9 小时前
让未来重现《星际迷航》
人工智能