Ollama+OpenWebUI本地部署大模型

Ollama+OpenWebUI本地部署大模型

前言

Ollama是一个开源项目,用于在本地计算机上运行大型语言模型(LLMs)的工具,它的底层是使用Docker,所以支持类似Docker的构建方式,大模型就是它的镜像。它支持多种模型格式,包括但不限于GGUF,允许用户在没有高性能GPU或不希望使用云服务的情况下,利用个人计算机的资源来执行复杂的语言任务。

Ollama使用

Ollama安装

根据自己的平台选择下载对应的工具,下载地址

右击使用管理员权限安装,成功后会弹出下面框。

输入ollama list 可以查看本地有哪些模型

ollama list

想要查看支持哪些模型,可以点击官网中央仓库,支持的模型很多。

Ollama支持的参数:

复制代码
Usage:
  ollama [flags]
  ollama [command]

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

Flags:
  -h, --help      help for ollama
  -v, --version   Show version information

Ollama修改配置

在拉取Ollama 大模型之前,需要修改Ollma两个配置,直接在电脑环境变量中添加以下两个系统变量,一个是方便局域网法访问,一个是避免C盘被占用过大:

  • OLLAMA_HOST:修改为0.0.0.0:11434,以便局域网访问
  • OLLAMA_MODELS:默认为C盘,需要修改为其他磁盘。

退出重登Ollama,重新打开PowelShell窗口,输入本机的ip,返回running即为修改Ip成功 :

Ollama 拉取远程大模型

ollama pull以及ollama run都可以拉取大模型,run拉取后会直接运行大模型

复制代码
ollama run codellama:7b


注意:可能会遇到以下类似的问题,大部分是网络环境问题。多试几次或者切换代理网络即可。

复制代码
Error: pull model manifest: Get "https://registry.ollama.ai/v2/library/codellama/manifests/7b": dial tcp: lookup registry.ollama.ai: no such host

Ollama 构建本地大模型

Ollama除了可以使用官方自带的模型,也可以使用我们已经量化好的gguf模型。在模型所在位置,新建个Modelfile,内容如下:

复制代码
FROM ./llama-2-7b-chat.Q4_K_M.gguf

# set prompt template
TEMPLATE """[INST] <<SYS>>{{ .System }}<</SYS>>

{{ .Prompt }} [/INST]
"""

# set parameters
PARAMETER stop "[INST]"
PARAMETER stop "[/INST]"
PARAMETER stop "<<SYS>>"
PARAMETER stop "<</SYS>>"

# set system message
SYSTEM """
You are a helpful assistant.
"""

使用PowerShell,切换到模型目录下,执行以下命令,构建模型

复制代码
ollama create my-model2 -f .\Modelfile

创建成功后:

复制代码
ollama list

Ollama 下载的模型默认情况下都是经过量化的,如果要使用未经量化的模型,可以在 huggingface(Hugging Face 起初是NLP机器学习服务商,开源了非常出名的自然语言处理应用构建的 transformers 库。随着大模型流行,Hugging Face转向了机器学习的社区服务,类似于代码服务的github) 下载指定的模型,并使用上述方式进行运行。

Ollama 运行本地模型:

命令行交互

复制代码
ollama run my-model2

Api调用

Ollama run之后就可以直接使用api接口调用,调用方式POST:

url:

复制代码
http://127.0.0.1:11434/api/generate

请求体,修改成你执行的model:

复制代码
{
  "model": "codellama:7b",
  "prompt": "Why is the sky blue?",
    "format": "json",
  "stream": false
}

返回数据:

复制代码
{
    "model": "codellama:7b",
    "created_at": "2024-05-18T08:05:25.3502395Z",
    "response": "{\n\"The sky appears blue because of a phenomenon called Rayleigh scattering, which occurs when sunlight interacts with the Earth's atmosphere. When light travels through a medium, such as air or water, it encounters particles that can scatter it in different directions. In the case of the Earth's atmosphere, the tiny molecules of gases, such as nitrogen and oxygen, scatter shorter wavelengths of light (like blue and violet) more than longer wavelengths (like red and orange). This is known as the Rayleigh scattering effect.\"\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n",
    "done": false
}

Web 端调用

Ollama 如果想要在Web端使用,需要借助OpenWebUI 这个工具。OpenWebUI 是一个为大型语言模型(LLM)设计的开源Web界面,它提供了一个用户友好的交互方式来管理和运行这些模型。OpenWebUI 可以与不同的LLM运行程序集成,包括但不限于Ollama和OpenAI兼容的API

推荐使用docker 启动OpenWebUI,如果你的Ollama与OpenWebUI部署在同一服务器上,则使用以下命令

复制代码
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name ollama-web --restart always ghcr.io/open-webui/open-webui:main

如果不是在同一机器,则加个参数OLLAMA_BASE_URL

复制代码
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://10.11.24.27 -v open-webui:/app/backend/data --name ollama-web --restart always ghcr.io/open-webui/open-webui:main

启动后输入

http://localhost:3000/或者http://10.11.24.27:3000/会跳转到如下页面

点击注册,注册信息可以随意写,注册后跳转到该页面

选择模型后可以开始对话

OpenWebUI 也支持下载模型,点击setting 页面,输入模型qwen:0.5b

成功后会有提示

切换到qwen:0.5b问答。

整体来说OpenWebUI用起来会比较方便。

总结

Ollama极大简化了大模型私有部署步骤,使得大模型运行像Docker一样简单方便。Ollama 还提供Api的方式,集成Langchain等应用也就方便了很多,结合OpenWebUI可以体验类似ChatGpt的交互,方便使用。

相关推荐
会飞的果粒橙1 天前
在Ubuntu24上安装ollama
ollama·deepseek
_pass_12 天前
Docker 运行RAGFlow 搭建RAG知识库
ollama·ragflow
GuokLiu17 天前
250618-通过Artifacts功能集成Open-WebUI与Gradio
python·gradio·openwebui
关山月18 天前
使用 Ollama 和 Next.js 构建 AI 助理(使用 LangChain、Pinecone 和 Ollama 实现 RAG)
ollama
ZackSock19 天前
自己开发 MCP 服务器
llm·ollama·mcp
陈佬昔没带相机20 天前
基于 open-webui 搭建企业级知识库
人工智能·ollama·deepseek
bug菌22 天前
手把手教你DeepSeek-R1本地部署和企业知识库搭建(Ollama+DeepSeek+RAGFlow)【保姆级教学】
人工智能·ollama·deepseek
人工智能小豪1 个月前
2025年大模型平台落地实践研究报告|附75页PDF文件下载
大数据·人工智能·transformer·anythingllm·ollama·大模型应用
AI大模型1 个月前
Ollama系列教程(八):semantic kernel调用ollama接口
程序员·llm·ollama
理论最高的吻1 个月前
本地部署 DeepSeek R1(最新)【从下载、安装、使用和调用一条龙服务】
ai·本地部署·ollama·deepseek