使用docker安装ollama及ollama拉取模型的总结

文章目录

创建ollama容器

bash 复制代码
docker run -d \
  --name ollama \
  --restart always \
  -p 11434:11434 \
  -v ollama:/root/.ollama \
  ollama/ollama

查看ollama容器是否已UP

bash 复制代码
[root@localserver models]# docker ps | grep ollama
257d3ct479ee   ollama/ollama                               "/bin/ollama serve"       40 minutes ago   Up 40 minutes                0.0.0.0:11434->11434/tcp, :::11434->11434/tcp                                  ollama

进入容器内,拉取模型

bash 复制代码
#进入容器内
docker exec -it ollama /bin/bash
#拉取模型(若没有此模型则会自动拉取),并以打开与模型的交互模型
ollama run tinyllama:latest
#拉取模型(不会自动进入和模型的交互模型)
ollama pull tinyllama:latest

如下演示:

注意:ollama run tinyllama:latest 只是打开了一个和模型的交互式模式,并不是说启动了模型。

只要ollama serve进程服务还在运行,ollama pull 下来的模型,都会在被调用时按需加载指定的大模型,并提供服务,并不是像传统服务那样后台一直到在启用监听的模式。所以这里的大模型 没有启动或停止一说。

ollama pull 或 ollama run 时当模型不存在时都会主动去指定的官方仓库里下载模型,所以最好使用没有代理的网络,不然会出现各种奇奇怪怪的问题。

相关推荐
星恒讯工业路由器26 分钟前
配网自动化多网融合应用解决方案
运维·自动化
智慧物业老杨32 分钟前
智慧物业收费系统的数智化落地实践:从人工硬扛到自动化闭环
运维·自动化
techdashen1 小时前
Cloudflare 为何抛弃 NGINX,用 Rust 自研了一个代理
运维·nginx·rust
南城猿1 小时前
保姆级 Ubuntu 部署 禅道
linux·运维·ubuntu
珠海西格电力1 小时前
零碳园区产业园管理系统的全场景源网荷储氢协同调度功能是如何实现的
大数据·运维·人工智能·物联网·能源
木雷坞2 小时前
K8s GPU 推理服务 ImagePullBackOff 排查与预热
云原生·容器·kubernetes·gpu算力
wj3055853782 小时前
CC-Switch 在 WSL Ubuntu 中安装记录
linux·运维·ubuntu
人生匆匆2 小时前
通过nginx解决跨域问题
运维·nginx
原来是猿3 小时前
【Socket编程预备知识】
linux·运维·服务器·网络
吴爃3 小时前
Spring Boot 项目在 K8S 中的打包、部署与运维发布实践
运维·spring boot·kubernetes