Ollama前端页面调用大模型 知识问答 模型切换

Ollama前端页面调用大模型 知识问答 模型切换

Ollama提供命令行的方式使用,还提供了API接口调用的方式,但是没有界面操作那么直观,那么有人就基于ollama提供的接口开发了一套页面,页面的风格和chatgpt和类似;下面介绍

如何比页面运行起来,并调用大模型问答。

本地部署大模型,不需要GPU就能玩本地模型-亲测成功

docker运行Ollama前端页面

使用docker运行,安装请看:

Centos7离线安装Docker

华为云arm架构安装Docker

shell 复制代码
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

#指定端口运行
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
 
#指定ollama端口
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

docker run -d -p 3000:8080 --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

打开浏览器输入地址访问:

http://192.168.1.225:8080/

界面风格很简单,如下图

给大模型提问,本地的CPU跑也不慢

还可以切换大模型

可以配置用户信息

参考链接:https://blog.csdn.net/AAI666666/article/details/136444519

相关推荐
陈阿土i3 小时前
SpringAI 1.0.0 正式版——利用Redis存储会话(ChatMemory)
java·redis·ai·springai
Baihai IDP3 小时前
“一代更比一代强”:现代 RAG 架构的演进之路
ai·llm·rag·genai·白海科技·检索增强生成
豌豆花下猫5 小时前
Python 潮流周刊#105:Dify突破10万星、2025全栈开发的最佳实践
后端·python·ai
audyxiao0017 小时前
计算机视觉顶刊《International Journal of Computer Vision》2025年5月前沿热点可视化分析
图像处理·人工智能·opencv·目标检测·计算机视觉·大模型·视觉检测
阿部多瑞 ABU8 小时前
# 从底层架构到应用实践:为何部分大模型在越狱攻击下失守?
gpt·安全·ai·自然语言处理
市象9 小时前
联想困局,破于AI?
人工智能·ai·联想
阿部多瑞 ABU12 小时前
大模型安全测试报告:千问、GPT 全系列、豆包、Claude 表现优异,DeepSeek、Grok-3 与 Kimi 存在安全隐患
gpt·安全·ai
Juicedata20 小时前
JuiceFS v1.3-Beta2:集成 Apache Ranger,实现更精细化的权限控制
运维·人工智能·ai
CM莫问1 天前
<论文>(微软)WINA:用于加速大语言模型推理的权重感知神经元激活
人工智能·算法·语言模型·自然语言处理·大模型·推理加速
FrankHuang8881 天前
使用高斯朴素贝叶斯算法对鸢尾花数据集进行分类
算法·机器学习·ai·分类