Ollama前端页面调用大模型 知识问答 模型切换

Ollama前端页面调用大模型 知识问答 模型切换

Ollama提供命令行的方式使用,还提供了API接口调用的方式,但是没有界面操作那么直观,那么有人就基于ollama提供的接口开发了一套页面,页面的风格和chatgpt和类似;下面介绍

如何比页面运行起来,并调用大模型问答。

本地部署大模型,不需要GPU就能玩本地模型-亲测成功

docker运行Ollama前端页面

使用docker运行,安装请看:

Centos7离线安装Docker

华为云arm架构安装Docker

shell 复制代码
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

#指定端口运行
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
 
#指定ollama端口
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

docker run -d -p 3000:8080 --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

打开浏览器输入地址访问:

http://192.168.1.225:8080/

界面风格很简单,如下图

给大模型提问,本地的CPU跑也不慢

还可以切换大模型

可以配置用户信息

参考链接:https://blog.csdn.net/AAI666666/article/details/136444519

相关推荐
Heartsuit7 小时前
LLM大语言模型私有化部署-使用Dify的工作流编排打造专属AI搜索引擎
人工智能·dify·ollama·qwen2.5·ai搜索引擎·tavily search·工作流编排
卓琢10 小时前
2024 年 IA 技术大爆发深度解析
深度学习·ai·论文笔记
zaim113 小时前
计算机的错误计算(一百八十七)
人工智能·ai·大模型·llm·错误·正弦/sin·误差/error
Engineer-Yao16 小时前
【win10+RAGFlow+Ollama】搭建本地大模型助手(教程+源码)
docker·大模型·win10·wsl·ollama·本地大模型·ragflow
凳子花❀18 小时前
市场常见AI芯片总结
ai·gpu
AI程序猿人1 天前
三种Transformer模型中的注意力机制介绍及Pytorch实现:从自注意力到因果自注意力
人工智能·pytorch·深度学习·自然语言处理·大模型·transformer·llms
豌豆花下猫1 天前
Python 潮流周刊#82:美国 CIA 如何使用 Python?(摘要)
后端·python·ai
爱学习的小道长2 天前
Python langchain ReAct 使用范例
python·ai·langchain
zaim12 天前
计算机的错误计算(一百八十六)
人工智能·python·ai·大模型·llm·误差·decimal
数据运营新视界2 天前
可编辑46PPT | AI+智能中台企业架构设计_重新定义制造
大数据·ai