启动ollama
bash
(ml_env) (base) lqsilicon@lqsilicon-MW50-SV0:~$ docker stop ollama
ollama
(ml_env) (base) lqsilicon@lqsilicon-MW50-SV0:~$ docker rm ollama
ollama
(ml_env) (base) lqsilicon@lqsilicon-MW50-SV0:~$ docker run --gpus all -d --name ollama ollama/ollama
737f207ce44459565d96585e93a24122c8f8248804d302dd49e7353a08f4d3d6
清除之前的lobechat
启动lobechat 并指定映射端口
bash
docker run -d -p 3210:3210 --name lobe-chat lobehub/lobe-chat
通过在浏览器访问
服务器ip+映射端口访问lobechat
bash
http://172.25.10.50:3210/
通过 Docker 容器中的 ollama
命令行工具,从 Ollama 模型管理系统中拉取(下载)llama2:7b-chat
模型。
bash
docker exec -it ollama ollama pull llama2:7b-chat