Mac环境下ollama部署和体验

欢迎访问我的GitHub

这里分类和汇总了欣宸的全部原创(含配套源码):https://github.com/zq2599/blog_demos

关于ollama

  • ollama和LLM(大型语言模型)的关系,类似于docker和镜像,可以在ollama服务中管理和运行各种LLM,下面是ollama命令的参数,与docker管理镜像很类似,可以下载、删除、运行各种LLM
shell 复制代码
Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

本篇概览

  • 作为入门操作的笔记,本篇记录了部署和简单体验ollama的过程,并且通过docker部署了web-ui,尝试通过页面使用大模型
  • 本次操作的环境如下
  1. 电脑:macbook pro m1,Sonoma 14.4.1
  2. ollama:0.1.32

安装

  • 在官网首页点击Download即可下载,得到zip安装包,解压后就是应用程序了
  • 会提示是否移动到应用程序目录,回车确认
  • 打开后是个简单的页面
  • 完成安装,会有一个提示,告诉你如何安装指定模型

关于模型

Model Parameters Size 下载命令
Llama 3 8B 4.7GB ollama run llama3
Llama 3 70B 40GB ollama run llama3:70b
Phi-3 3.8B 2.3GB ollama run phi3
Mistral 7B 4.1GB ollama run mistral
Neural Chat 7B 4.1GB ollama run neural-chat
Starling 7B 4.1GB ollama run starling-lm
Code Llama 7B 3.8GB ollama run codellama
Llama 2 Uncensored 7B 3.8GB ollama run llama2-uncensored
LLaVA 7B 4.5GB ollama run llava
Gemma 2B 1.4GB ollama run gemma:2b
Gemma 7B 4.8GB ollama run gemma:7b
Solar 10.7B 6.1GB ollama run solar
  • 另外需要注意的是本地内存是否充足,7B参数的模型需要8G内存,13B需要16G内存,33B需要32G内存

运行8B的Llama3

  • 我的mac笔记本内存16G,所以打算运行8B的Llama3,命令如下
shell 复制代码
ollama run llama3
  • 第一次运行,因为没有模型文件,所以需要下载,等待下载中
    - 下载完毕后就可以问答了
  • 退出的方法是输入/bye

Linux版本

  • 如果操作系统是Linux,安装命令如下
shell 复制代码
curl -fsSL https://ollama.com/install.sh | sh
  • 安装完成后还要启动
shell 复制代码
ollama serve

webui

  • 如果电脑上装有docker,请执行以下命令来启动ollama的webui
shell 复制代码
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
  • 出现登录页面,需要点击右下角的Sign up先注册
  • 完成注册后,第一次登录会出现特性介绍
  • 可以在这里修改系统语言
  • 接下来试试聊天功能,先是选择模型,由于刚才已经下载过模型了,这里只要选择即可,如下图
  • 然后就可以对话了
  • 在设置页面可以管理模型
  • 至此,最基础的操作已经完成,如果您正处于初步尝试阶段,希望本文可以给您一些参考

你不孤单,欣宸原创一路相伴

  1. Java系列
  2. Spring系列
  3. Docker系列
  4. kubernetes系列
  5. 数据库+中间件系列
  6. DevOps系列
相关推荐
码农阿豪9 小时前
本地部署Anything LLM+Ollama+DeepSeek R1打造AI智能知识库教程
人工智能·llm·ollama·deepseek
万物皆字节11 小时前
【大模型系列】Windows系统上运行大语言模型方式
ai
jxandrew14 小时前
大模型驱动的业务自动化
ai·大模型·自动化编程
程序设计实验室14 小时前
LLM探索:离线部署Ollama和one-api服务
ai·llm
x-cmd15 小时前
[250217] x-cmd 发布 v0.5.3:新增 DeepSeek AI 模型支持及飞书/钉钉群机器人 Webhook 管理
ai·机器人·llm·钉钉·飞书·webhook·deepseek
只会一点java15 小时前
程序员转型AI:行业分析
ai
念九_ysl16 小时前
探索Hugging Face:开源AI社区的核心工具与应用实践
python·ai
bdawn17 小时前
构建高效智能对话前端:基于Ant Design X 的deepseek对话应用
ai·大模型·交互·对话·实时通信·deepseek·ant design x
shandianchengzi18 小时前
【BUG】LLM|Ubuntu 用 ollama 部署 DeepSeek 但没输出,llama 有输出
ubuntu·llm·bug·llama·ollama·deepseek
子正19 小时前
yolo11s rknn无法detect的bugfix - step by step
yolo·机器学习·ai