Ollama前端页面调用大模型 知识问答 模型切换
Ollama提供命令行的方式使用,还提供了API接口调用的方式,但是没有界面操作那么直观,那么有人就基于ollama提供的接口开发了一套页面,页面的风格和chatgpt和类似;下面介绍
如何比页面运行起来,并调用大模型问答。
docker运行Ollama前端页面
使用docker运行,安装请看:
shell
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
#指定端口运行
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
#指定ollama端口
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
docker run -d -p 3000:8080 --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
打开浏览器输入地址访问:
界面风格很简单,如下图
给大模型提问,本地的CPU跑也不慢
还可以切换大模型
可以配置用户信息
参考链接:https://blog.csdn.net/AAI666666/article/details/136444519