Ollama安装

1 Ollama简介

随着人工智能技术的快速发展,大型语言模型 LLM 已成为NLP领域的重要工具。然而,这些模型的运行通常需要大量的计算资源和复杂的部署流程。为了解决这个问题,Ollama应运而生,成为了一个高效的本地大语言模型LLM运行专家。

Ollama是一个开源的大型语言模型服务工具,它帮助用户快速在本地运行大模型。通过简单的安装指令,用户可以执行一条命令就在本地运行开源大型语言模型,如Llama 2。Ollama极大地简化了部署和管理LLM的过程,使得用户能够快速地在本地运行大型语言模型。


2 Windows下Ollama的安装

2.1 下载安装Ollama

  • Ollama主页:https://ollama.com/download/ ,支持macOS, Linux 和 Windows 系统,如果是macOS、Linux系统,直接安装使用即可;如果是Windows,需要按照以下教程进行安装使用:

  • 点击下载按钮,获取OllamaSetup.exe安装程序。

  • 双击安装文件,点击「Install」开始安装。目前的Ollama会默认安装到C盘,路径如下:C:\Users\%username%\AppData\Local\Programs\Ollama,并不会让用户自定义选择安装路径。

  • 安装完成后,会在电脑右下角出现Ollama图标!

2.2 环境配置

  • 更改模型下载位置:模型默认下载到C盘,所以可以点击Settings进行自定义路径的设置

  • 这里是在D盘自定义了文件夹(可以根据自己的电脑情况进行选择)

2.3 下载模型

  • 打开Ollama聊天对话框,选在自己想下载的模型

    • 注意:模型越大,电脑要求越高,运行7B至少需要8GB显存,运行13B至少需要16G显存,如果没有GPU默认加载CPU;如果有默认加载GPU
  • 如果默认的模型中不符合你的需求,可以在find model输入框中输入 <模型名称>,首次执行会从模型库中下载模型,所需时间取决于你的网速和模型大小。

    在这里我建议可以先在find model中输入:qwen2.5:1.5b。用这个小模型下载后体验其功能,尽管没有GPU运行也会比较流畅

2.4 使用模型

  • 等待下载模型完成后,就可以在聊天界面中使用了:

3 Mac下Ollama的安装

3.1 下载安装包

  • 打开浏览器,访问Ollama官方网站:https://ollama.com/download

  • 在官网找到Mac版本下载按钮,点击"Download for Mac"进行下载

3.2 安装程序

  • 下载完成后,你会得到一个.dmg文件,双击打开它

  • 将Ollama应用程序拖拽到Applications(应用程序)文件夹中

  • 系统可能会提示需要移动到应用程序内,按照提示点击[Next]和[Install]按钮完成安装

3.3 启动Ollama

  • 安装完成后,Ollama会自动启动。

3.4 模型下载以及模型运行(和windows一致)

相关推荐
小超同学你好2 小时前
Transformer 14. DeepSeekMoE 架构解析:与 LLaMA 以及 Transformer 架构对比
语言模型·架构·transformer·llama
小超同学你好6 小时前
Transformer 15: DeepSeek-V2 架构解析:MLA + DeepSeekMoE 与主流架构对比
语言模型·架构·transformer·llama
品克缤1 天前
Trading-Analysis:基于“规则+LLM”的行情分析终端(兼谈 Vibe Coding 实战感)
前端·后端·node.js·vue·express·ai编程·llama
seaside20031 天前
llama.cpp 部署qwen3.5 2B 高通芯片安卓实战
llama·qwen3.5·高通soc
JAdroid1 天前
LLM大模型操作比特币
llama
踏歌~2 天前
LLaMA Factory简介和使用方法
llama
魔乐社区2 天前
在魔乐社区使用llama-factory微调Qwen3.5-4B模型
微调·llama·qwen3.5
小超同学你好3 天前
Transformer 13. DeepSeek LLM 架构解析:与 LLaMA 以及 Transformer 架构对比
人工智能·语言模型·架构·transformer·llama
CHPCWWHSU3 天前
llama-server - 从命令行到HTTP Server
llm·llama·cpp·cudatoolkit