Ollama + (Anythingllm / Open WebUI / MaxKB)搭建本地大模型

个人体验MaxKB做知识库效果最好

一、Ollama

1、下载Ollama

地址:Download Ollama on macOS

curl -fsSL https://ollama.com/install.sh | sh

2、下载指定的模型

地址:library

Llama3

ollama run llama3:8b

这个模型可以将文本内容转换成向量数据

ollama pull nomic-embed-text:v1.5

二、Open WebUI

1、拉取镜像

拉取镜像

docker pull ghcr.io/open-webui/open-webui:main

2、(可选)使用代理拉取镜像

如果拉不动的话加个代理

docker pull ghcr.dockerproxy.com/open-webui/open-webui:main

重命名镜像(如果是通过代理下载的) docker tag ghcr.dockerproxy.com/open-webui/open-webui:main ghcr.io/open-webui/open-webui:main

删除代理镜像(如果是通过代理下载的)

docker rmi ghcr.dockerproxy.com/open-webui/open-webui:main

3、运行容器

docker run -p 18080:8080 -e OLLAMA_BASE_URL=http://10.16.2.70:11434 --name open-webui --restart always -v open-webui-data:/app/backend/data ghcr.io/open-webui/open-webui:main

4、使用浏览器访问链接

http://192.168.2.250:18080/

三、Anythingllm

1、拉取镜像

bash 复制代码
docker pull mintplexlabs/anythingllm

2、运行容器

bash 复制代码
export STORAGE_LOCATION=$HOME/anythingllm && \ mkdir -p $STORAGE_LOCATION && \ touch "$STORAGE_LOCATION/.env" && \ chmod -R 777 ${STORAGE_LOCATION} && \ docker run -d -p 3001:3001 \ --cap-add SYS_ADMIN \ -v ${STORAGE_LOCATION}:/app/server/storage \ -v ${STORAGE_LOCATION}/.env:/app/server/.env \ -e STORAGE_DIR="/root/anythingllm/storage" \ mintplexlabs/anythingllm

3、使用浏览器访问链接

http://192.168.2.250:3001

四、MaxKB

1、拉取镜像

bash 复制代码
docker pull 1panel/maxkb

2、运行容器

bash 复制代码
docker run -d --name=maxkb -p 28080:8080 -v ~/.maxkb:/var/lib/postgresql/data 1panel/maxkb

3、使用浏览器访问链接

http://192.168.2.250:28080


附1:

更改模型存放位置

  1. 进入配置默认目录:
bash 复制代码
cd /etc/systemd/system/
  1. 配置目录权限给【ollama用户及用户组】
bash 复制代码
chown -R ollama:ollama /home/ollama

3.打开配置文件,在[Service]下添加OLLAMA_MODELS环境变量,

bash 复制代码
vi ollama.service

Service

修改模型位置

Environment="OLLAMA_MODELS=/home/ollama/models

配置其它机器可访问

Environment="OLLAMA_HOST=0.0.0.0"

  1. 重启ollama
bash 复制代码
systemctl daemon-reload
systemctl restart ollama.service

5、Open Web UI

密码:2kkVaZz91wQ2Rjck

附2:

参考链接1:利用AI解读本地TXT、WORD、PDF文档 - 哔哩哔哩

参考链接2:基于Ollama+AnythingLLM搭建本地私有知识库系统-CSDN博客

参考链接3:操作教程丨MaxKB+Ollama:快速构建基于大语言模型的本地知识库问答系统_应用_部署_Base

相关推荐
生信大表哥5 小时前
GPT-5-Codex VS Gemini 3 VS Claude Sonnet 4.5 新手小白入门学习教程
人工智能·gpt·学习·rstudio·数信院生信服务器
阿猿收手吧!2 天前
【大模型】什么是大模型?vLLM是?模型部署?CUDA?
ai·llama
AI大模型2 天前
开源大模型全维度详解+实操部署(Mistral-、Gemma(Google)、Llama、Qwen),小白必看
llm·agent·llama
致Great2 天前
DeepSeek-V3.2技术报告解读:开源大模型的逆袭之战——如何用10%算力追平GPT-5
人工智能·gpt·开源·大模型·agent·智能体
不会吉他的肌肉男不是好的挨踢男2 天前
LLaMA Factory 训练模型未检测到CUDA环境解决
python·ai·llama
TGITCIC2 天前
LLM推理引擎选型实战指南:用Transformers、llama.cpp 还是 vLLM 之争
transformer·llama·ai大模型·vllm·llama.cpp·大模型ai
黑客思维者2 天前
重塑信任与效率:Salesforce Einstein GPT 客服体系深度案例研究
人工智能·gpt·llm·客服系统·salesforce
被制作时长两年半的个人练习生3 天前
如何调试llama.cpp及判断是否支持RVV
linux·服务器·llama
*星星之火*3 天前
【大白话 AI 答疑】第2篇 GPT 全系列发展历程:从 GPT-1 到 GPT-5,每一代的关键突破都在这!
gpt
DO_Community3 天前
碾压GPT-5,Qwen3-VL开源多模态新标杆:99.5%长视频定位准确率
人工智能·gpt·开源·llm·音视频