Ollama安装

1 Ollama简介

随着人工智能技术的快速发展,大型语言模型 LLM 已成为NLP领域的重要工具。然而,这些模型的运行通常需要大量的计算资源和复杂的部署流程。为了解决这个问题,Ollama应运而生,成为了一个高效的本地大语言模型LLM运行专家。

Ollama是一个开源的大型语言模型服务工具,它帮助用户快速在本地运行大模型。通过简单的安装指令,用户可以执行一条命令就在本地运行开源大型语言模型,如Llama 2。Ollama极大地简化了部署和管理LLM的过程,使得用户能够快速地在本地运行大型语言模型。


2 Windows下Ollama的安装

2.1 下载安装Ollama

  • Ollama主页:https://ollama.com/download/ ,支持macOS, Linux 和 Windows 系统,如果是macOS、Linux系统,直接安装使用即可;如果是Windows,需要按照以下教程进行安装使用:

  • 点击下载按钮,获取OllamaSetup.exe安装程序。

  • 双击安装文件,点击「Install」开始安装。目前的Ollama会默认安装到C盘,路径如下:C:\Users\%username%\AppData\Local\Programs\Ollama,并不会让用户自定义选择安装路径。

  • 安装完成后,会在电脑右下角出现Ollama图标!

2.2 环境配置

  • 更改模型下载位置:模型默认下载到C盘,所以可以点击Settings进行自定义路径的设置

  • 这里是在D盘自定义了文件夹(可以根据自己的电脑情况进行选择)

2.3 下载模型

  • 打开Ollama聊天对话框,选在自己想下载的模型

    • 注意:模型越大,电脑要求越高,运行7B至少需要8GB显存,运行13B至少需要16G显存,如果没有GPU默认加载CPU;如果有默认加载GPU
  • 如果默认的模型中不符合你的需求,可以在find model输入框中输入 <模型名称>,首次执行会从模型库中下载模型,所需时间取决于你的网速和模型大小。

    在这里我建议可以先在find model中输入:qwen2.5:1.5b。用这个小模型下载后体验其功能,尽管没有GPU运行也会比较流畅

2.4 使用模型

  • 等待下载模型完成后,就可以在聊天界面中使用了:

3 Mac下Ollama的安装

3.1 下载安装包

  • 打开浏览器,访问Ollama官方网站:https://ollama.com/download

  • 在官网找到Mac版本下载按钮,点击"Download for Mac"进行下载

3.2 安装程序

  • 下载完成后,你会得到一个.dmg文件,双击打开它

  • 将Ollama应用程序拖拽到Applications(应用程序)文件夹中

  • 系统可能会提示需要移动到应用程序内,按照提示点击[Next]和[Install]按钮完成安装

3.3 启动Ollama

  • 安装完成后,Ollama会自动启动。

3.4 模型下载以及模型运行(和windows一致)

相关推荐
❀͜͡傀儡师11 小时前
ShadowBroker:实时全球情报地图,开源情报(OSINT)的终极聚合平台
docker·容器·llama
❀͜͡傀儡师21 小时前
基于Docker的LLaMA-Factory全流程部署指南
docker·容器·llama
d1z88821 小时前
(二十)32天GPU测试从入门到精通-llama.cpp CPU/GPU 混合推理day18
人工智能·llama·显卡·llama.cpp
AI自动化工坊2 天前
Google LiteRT-LM生产级部署指南:如何在边缘设备实现高效LLM推理?
人工智能·ai·llama
gergul3 天前
在llama-cpp-python中使用自己编译的llama.cpp,解决pip install llama-cpp-python报错
python·llama·llama.cpp·llamacpppython
黑牛儿3 天前
零成本!Ollama本地部署国产大模型全指南(支持Kimi-K2.5/GLM-5/Qwen,新手秒上手)
ai·llama
奇思智算4 天前
LLaMA/Bert/扩散模型微调GPU选型及租用指南
人工智能·bert·llama
xingyuzhisuan4 天前
LoRA微调实战:8卡4090服务器如何高效微调LLaMA?
运维·服务器·llama·gpu算力
yumgpkpm5 天前
华为昇腾910B上用Kubernetes(K8s)部署LLM和用Docker部署LLM的区别
docker·chatgpt·容器·stable diffusion·kubernetes·llama·gpu算力
yumgpkpm5 天前
华为昇腾910B上用Kubernetes(K8s)部署LLM(Qwen3-32B)的详细步骤,保姆级命令及方法、下载链接等
运维·服务器·华为·stable diffusion·aigc·copilot·llama