ragflow连ollama时出现的Bugragflow和ollama连接后,已经添加了两个模型但是ragflow仍然一直warn:Please add both embedding model and LLM in Settings > Model providers firstly.这里可能是我一开始拉取的镜像容器太小,容不下当前添加的模型,导致无法去设置模型,进行后续操作 后面拉了docker-compose-CN-oc9.yml后,发现可以显示出下面的界面:但是卡了,重新配一遍 左边栏中的系统应该是当前运行的容器