Win环境下Ollama+OpenWebUI本地部署llama教程

本文将简单介绍如何在Windows环境下通过Ollama本地部署大语言模型(LLM),并通过OpenWebUI实现访问。

一、准备工作

1. 系统要求

  • 操作系统:Windows 10 或更新版本
  • 内存:16GB 以上
  • GPU:性能和显存足够,如RTX 3060以上

二、安装Ollama

1. 下载和安装

  1. 访问Ollama的官网下载适用于Windows的安装包
    https://ollama.com/download

  2. 运行下载的安装包,按照提示完成安装。默认安装路径为:

    C:\Users\username\AppData\Local\Programs\Ollama
    

2. 配置环境变量

同时,因为默认安装和模型下载路径为C盘,为了更改模型的下载路径,可以在环境变量中这样修改:

三、运行Ollama模型

1. 下载模型

Ollama支持多种LLM模型,例如Llama2、Llama3等。你可以使用以下命令下载并运行模型:

ollama run llama2

如果Ollama找不到模型,它会自动下载。下载完成后,你可以在命令行中输入提示以测试模型。

2. 列出本地模型

使用以下命令查看已下载的模型列表:

ollama list

四、安装OpenWebUI

1. 下载和安装

OpenWebUI是一个用户友好的Web界面,便于与LLM进行交互。你可以从其GitHub仓库下载最新版本。以下是非Docker方式的安装步骤:

  1. 下载OpenWebUI的安装包,并解压到指定目录。

  2. 打开命令行,进入OpenWebUI的解压目录,运行以下命令安装依赖:

    npm install

安装完成后,启动OpenWebUI:

npm start

2. 配置和访问

启动后,OpenWebUI将在本地的3000端口运行。你可以在浏览器中访问http://localhost:3000查看和使用Web界面。

五、实现公网访问

如果你需要在公网环境中访问本地部署的LLM,可以使用内网穿透工具如cpolar:

安装并配置cpolar,具体步骤请参考cpolar官网,并运行以下命令将本地的3000端口暴露到公网:

cpolar http 3000

获取公网地址后,你可以在任何地方通过该地址访问OpenWebUI界面。

【参考资料】

相关推荐
kakaZhui8 小时前
【多模态大模型】GLM-4-Voice端到端语音交互机器人VoiceAI
人工智能·chatgpt·机器人·aigc·llama
m0_748038561 天前
NLP09-加强1-对比SVM
人工智能·python·机器学习·支持向量机·分类·nlp
智模睿脑君1 天前
Ollama部署本地大模型DeepSeek-R1-Distill-Llama-70B
人工智能·深度学习·语言模型·自然语言处理·chatgpt·transformer·llama
m0_748038561 天前
NLP09-朴素贝叶斯问句分类(3/3)
人工智能·python·机器学习·自然语言处理·数据挖掘·nlp
火云牌神1 天前
本地大模型编程实战(22)用langchain实现基于SQL数据构建问答系统(1)
python·sql·langchain·llama·qwen2.5
神秘的土鸡1 天前
本地部署 DeepSeek-R1大模型详细教程(桌面客户端美观UI)
人工智能·机器学习·自然语言处理·llama·ollama
PeterClerk2 天前
AIGC-LLAMA模型介绍
人工智能·python·语言模型·自然语言处理·aigc·llama
智模睿脑君2 天前
huggingface部署本地大模型DeepSeek-R1-Distill-Llama-70B使用streamlit构建交互式 Web 应用
前端·人工智能·深度学习·神经网络·语言模型·自然语言处理·llama
yuleicqut2 天前
llaMa模型的创新
llama
小森( ﹡ˆoˆ﹡ )3 天前
DeepSeek 全面分析报告
人工智能·自然语言处理·nlp