mac下安装Ollama + Open WebUI + Llama3.1

本文介绍mac下安装Ollama + Open WebUI + Llama3.1 8b具体步骤。

目录

    • 推荐配置
    • [Ollama Open WebUI Llama3.1简介](#Ollama Open WebUI Llama3.1简介)
    • 安装Ollama
    • [安装Open WebUI](#安装Open WebUI)

推荐配置

m1以上芯片,16g内存,20g以上硬盘空间

Ollama Open WebUI Llama3.1简介

  • Ollama: 下载,管理和本地调用大模型的软件,支持常见大语言模型如llama, qwen等,官网https://ollama.com/。支持的模型列表:https://ollama.com/search
  • Llama3.1: meta开源的大模型: https://github.com/meta-llama/llama-models/tree/main。有8B, 70B and 405B三种规格。8b代表的是模型参数量和模型大小,即llama3.1模型拥有大约800亿(8 billion)个参数。
    参数越大(如: 70B, 405B...),代表模型越大也越复杂,跑起来所需要的硬件成本也越高。因此,对于个人使用/测试,一般都首选8b
  • openweb ui: 有丰富功能的可扩展本地AIweb界面,用户在openweb ui界面上输入问题,和模型交互,也可以自定义prompt,下载其他工具增强模型功能等。

安装Ollama

  1. mac下载ollama: https://ollama.com/,下载下来是个zip包,里面就有app程序直接打开。
    2. 使用ollama下载运行llama3.1:8b到本地mac机器:ollama run llama3.1:8b

安装Open WebUI

  1. 最好使用Python 3.11.9,pip对应版本也装好
  2. pip安装Open WebUI: pip3.11 install open-webui
  3. mac下起open-webui:/Library/Frameworks/Python.framework/Versions/3.11/bin/open-webui serve,会自动打印日志出来
  4. ollama默认在11434起了端口,Open WebUI通过11434端口和Llama交互
  5. 打开127.0.0.1:8080 openwebui页面,注册新账号,左上角选择llama3.18b模型并设为默认,开始提问
    6. 也可通过ollama直接和llama 3.1模型交互,提问获得回答
相关推荐
令狐少侠20111 小时前
ai之对接电信ds后端服务,通过nginx代理转发https为http,对外请求,保持到达第三方后请求头不变
nginx·ai·https
产品经理独孤虾9 小时前
人工智能大模型如何助力电商产品经理打造高效的商品工业属性画像
人工智能·机器学习·ai·大模型·产品经理·商品画像·商品工业属性
海豚调度15 小时前
Linux 基金会报告解读:开源 AI 重塑经济格局,有人失业,有人涨薪!
大数据·人工智能·ai·开源
令狐少侠201115 小时前
ai之RAG本地知识库--基于OCR和文本解析器的新一代RAG引擎:RAGFlow 认识和源码剖析
人工智能·ai
小屁妞19 小时前
Spring AI Alibaba智能测试用例生成
ai·测试用例生成·ai生成测试用例
小疯仔19 小时前
本地部署Dify并运行,私有化AI
ai
tonngw1 天前
DeepSeek 帮助自己的工作
ai
张彦峰ZYF1 天前
从检索到生成:RAG 如何重构大模型的知识边界?
人工智能·ai·aigc
前端小盆友2 天前
从零实现一个GPT 【React + Express】--- 【3】解析markdown,处理模型记忆
gpt·react.js
难受啊马飞2.02 天前
如何判断 AI 将优先自动化哪些任务?
运维·人工智能·ai·语言模型·程序员·大模型·大模型学习