Win环境下Ollama+OpenWebUI本地部署llama教程

本文将简单介绍如何在Windows环境下通过Ollama本地部署大语言模型(LLM),并通过OpenWebUI实现访问。

一、准备工作

1. 系统要求

  • 操作系统:Windows 10 或更新版本
  • 内存:16GB 以上
  • GPU:性能和显存足够,如RTX 3060以上

二、安装Ollama

1. 下载和安装

  1. 访问Ollama的官网下载适用于Windows的安装包
    https://ollama.com/download

  2. 运行下载的安装包,按照提示完成安装。默认安装路径为:

    复制代码
    C:\Users\username\AppData\Local\Programs\Ollama

2. 配置环境变量

同时,因为默认安装和模型下载路径为C盘,为了更改模型的下载路径,可以在环境变量中这样修改:

三、运行Ollama模型

1. 下载模型

Ollama支持多种LLM模型,例如Llama2、Llama3等。你可以使用以下命令下载并运行模型:

复制代码
ollama run llama2

如果Ollama找不到模型,它会自动下载。下载完成后,你可以在命令行中输入提示以测试模型。

2. 列出本地模型

使用以下命令查看已下载的模型列表:

复制代码
ollama list

四、安装OpenWebUI

1. 下载和安装

OpenWebUI是一个用户友好的Web界面,便于与LLM进行交互。你可以从其GitHub仓库下载最新版本。以下是非Docker方式的安装步骤:

  1. 下载OpenWebUI的安装包,并解压到指定目录。

  2. 打开命令行,进入OpenWebUI的解压目录,运行以下命令安装依赖:

    npm install

安装完成后,启动OpenWebUI:

复制代码
npm start

2. 配置和访问

启动后,OpenWebUI将在本地的3000端口运行。你可以在浏览器中访问http://localhost:3000查看和使用Web界面。

五、实现公网访问

如果你需要在公网环境中访问本地部署的LLM,可以使用内网穿透工具如cpolar:

安装并配置cpolar,具体步骤请参考cpolar官网,并运行以下命令将本地的3000端口暴露到公网:

复制代码
cpolar http 3000

获取公网地址后,你可以在任何地方通过该地址访问OpenWebUI界面。

【参考资料】

相关推荐
大模型教程8 小时前
小白学大模型:从零搭建LLaMA
程序员·llm·llama
中科逸视OCR2 天前
当OCR遇见NLP:解析深度学习发票识别中的语义理解与关系抽取模块
nlp·ocr·发票识别
Jina AI2 天前
让 llama.cpp 支持多模态向量模型
llama
wyw00002 天前
大模型微调之LLaMA-Factory实战
llama
2202_756749692 天前
LLM大模型-大模型微调(常见微调方法、LoRA原理与实战、LLaMA-Factory工具部署与训练、模型量化QLoRA)
人工智能·深度学习·llama
JoannaJuanCV2 天前
大模型训练框架:LLaMA-Factory框架
llama·大模型训练·llama factory
fanstuck3 天前
Prompt提示工程上手指南(六):AI避免“幻觉”(Hallucination)策略下的Prompt
人工智能·语言模型·自然语言处理·nlp·prompt
kida_yuan3 天前
【从零开始】14. 数据评分与筛选
python·数据分析·nlp
nju_spy4 天前
GPT 系列论文1-2 两阶段半监督 + zero-shot prompt
人工智能·gpt·nlp·大语言模型·zero-shot·transformer架构·半监督训练
ACEEE12224 天前
Stanford CS336 | Assignment 2 - FlashAttention-v2 Pytorch & Triotn实现
人工智能·pytorch·python·深度学习·机器学习·nlp·transformer