Ollama前端页面调用大模型 知识问答 模型切换

Ollama前端页面调用大模型 知识问答 模型切换

Ollama提供命令行的方式使用,还提供了API接口调用的方式,但是没有界面操作那么直观,那么有人就基于ollama提供的接口开发了一套页面,页面的风格和chatgpt和类似;下面介绍

如何比页面运行起来,并调用大模型问答。

本地部署大模型,不需要GPU就能玩本地模型-亲测成功

docker运行Ollama前端页面

使用docker运行,安装请看:

Centos7离线安装Docker

华为云arm架构安装Docker

shell 复制代码
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

#指定端口运行
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
 
#指定ollama端口
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

docker run -d -p 3000:8080 --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

打开浏览器输入地址访问:

http://192.168.1.225:8080/

界面风格很简单,如下图

给大模型提问,本地的CPU跑也不慢

还可以切换大模型

可以配置用户信息

参考链接:https://blog.csdn.net/AAI666666/article/details/136444519

相关推荐
孔令飞41 分钟前
使用 Go 与 Redis Streams 构建可靠的事件驱动系统
redis·ai·云原生·golang·kubernetes
Funny_AI_LAB1 小时前
大模型图像编辑那家强?
图像处理·计算机视觉·ai·语言模型
OJAC近屿智能4 小时前
新增29个专业,科技成为未来主赛道!
人工智能·科技·ai·机器人·aigc·近屿智能
q_q王5 小时前
dify对接飞书云文档,并且将图片传入飞书文档
python·大模型·飞书·dify·智能体·图片展示
GPUStack7 小时前
GPUStack v0.5:模型Catalog、图生图功能上线,多维优化全面提升产品能力与使用体验
ai·大模型·llm·genai·gpu集群
阿东玩AI9 小时前
基于 MCP 架构的知识库问答系统实战,已拿字节offer
架构·大模型·大模型实战·mcp·知识库问答系统
乌旭13 小时前
量子计算与GPU的异构加速:基于CUDA Quantum的混合编程实践
人工智能·pytorch·分布式·深度学习·ai·gpu算力·量子计算
ʚʕ̯•͡˔•̯᷅ʔɞ LeeKuma16 小时前
探索具身智能协作机器人:技术、应用与未来
ai·协作机器人·具身智能机器人
AI蜗牛车20 小时前
【LLM+Code】Windsurf Agent 模式Prompt&Tools详细解读
ai·大模型·llm·agent