使用docker安装ollama及ollama拉取模型的总结

文章目录

创建ollama容器

bash 复制代码
docker run -d \
  --name ollama \
  --restart always \
  -p 11434:11434 \
  -v ollama:/root/.ollama \
  ollama/ollama

查看ollama容器是否已UP

bash 复制代码
[root@localserver models]# docker ps | grep ollama
257d3ct479ee   ollama/ollama                               "/bin/ollama serve"       40 minutes ago   Up 40 minutes                0.0.0.0:11434->11434/tcp, :::11434->11434/tcp                                  ollama

进入容器内,拉取模型

bash 复制代码
#进入容器内
docker exec -it ollama /bin/bash
#拉取模型(若没有此模型则会自动拉取),并以打开与模型的交互模型
ollama run tinyllama:latest
#拉取模型(不会自动进入和模型的交互模型)
ollama pull tinyllama:latest

如下演示:

注意:ollama run tinyllama:latest 只是打开了一个和模型的交互式模式,并不是说启动了模型。

只要ollama serve进程服务还在运行,ollama pull 下来的模型,都会在被调用时按需加载指定的大模型,并提供服务,并不是像传统服务那样后台一直到在启用监听的模式。所以这里的大模型 没有启动或停止一说。

ollama pull 或 ollama run 时当模型不存在时都会主动去指定的官方仓库里下载模型,所以最好使用没有代理的网络,不然会出现各种奇奇怪怪的问题。

相关推荐
航Hang*4 小时前
Windows Server 配置与管理——第3章:文件系统管理
运维·服务器·windows·vmware
lifewange4 小时前
Linux ps 进程查看命令详解
linux·运维·服务器
功德+n4 小时前
Linux下安装与配置Docker完整详细步骤
linux·运维·服务器·开发语言·docker·centos
小敬爱吃饭5 小时前
Ragflow Docker部署及问题解决方案(界面为Welcome to nginx,ragflow上传文件失败,Docker中的ragflow-cpu-1一直重启)
人工智能·python·nginx·docker·语言模型·容器·数据挖掘
杨云龙UP5 小时前
从0到1快速学会Linux操作系统(基础),这一篇就够了!
linux·运维·服务器·学习·ubuntu·centos·ssh
HXQ_晴天5 小时前
Ubuntu 设置中文输入法
linux·运维·ubuntu
Dovis(誓平步青云)5 小时前
《Linux 信号入门:搞懂 “进程通信的紧急电话” 到底怎么用(初篇)》
linux·运维·服务器
0vvv05 小时前
删除wsl环境下的Ubuntu系统
linux·运维·ubuntu
木子欢儿5 小时前
Docker Hub 镜像发布指南
java·spring cloud·docker·容器·eureka