linux安装ollama

俩种方式都可

一、linux通过docker安装ollama镜像

1.下载安装ollama镜像

复制代码
# 安装 Docker
sudo yum install docker
sudo systemctl start docker

#docker查看所有容器
docker ps -a  # 查看所有容器

# docker查看指定容器
docker ps -a |grep ollama

# 创建模型存储目录(例如 /data/ollama_models)
sudo mkdir -p /data/ollama_models
sudo chmod -R 777 /data/ollama_models  # 确保容器有写入权限

# 启动容器并挂载目录
docker run -d \
  --name ollama \
  -v /data/ollama_models:/root/.ollama \  # 将主机目录挂载到容器内
  -p 11434:11434 \
  ollama/ollama

#修改默认模型存储路径
如果不想挂载 /root/.ollama,可通过环境变量指定其他路径:
docker run -d \
  --name ollama \
  -v /custom/models:/data/ollama_models \  # 自定义挂载点
  -e OLLAMA_MODELS=/data/ollama_models \   # 指定容器内路径
  -p 11434:11434 \
  ollama/ollama


# 停止容器
docker stop ollama

# 启动
docker start ollama

# 重启动
docker restart ollama

#如果ollama正在运行并且不需要ollama了,删除
docker stop ollama && docker rm ollama

2.检查目录挂载 (-v) 是否生效

复制代码
#检查目录挂载 (-v) 是否生效
方法 1:使用 docker inspect 查看挂载信息
docker inspect ollama | grep -A 5 Mounts

方法2:
# 进入容器内部
docker exec -it ollama bash

# 查看目录是否存在
ls -l /data/ollama_models

# 尝试创建测试文件(验证写入权限)
touch /data/ollama_models/test.txt
exit

# 返回主机检查文件是否同步
ls -l /custom/models/test.txt

3.检查环境变量 (-e) 是否生效

复制代码
方法 1:使用 docker inspect 查看环境变量
docker inspect ollama | grep -A 10 Env
预期输出
"Env": [
    "OLLAMA_MODELS=/data/ollama_models",
    "PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"
]




方法 2:在容器内打印环境变量
docker exec -it ollama sh -c 'echo $OLLAMA_MODELS'
预期输出/data/ollama_models

4.下载大模型

进入容器内操作或直接通过 REST API 下载模型:

方法 1:进入容器内操作

大模型占用内存一般较高,最好查一下电脑配置是否能带动大模型

复制代码
docker exec -it ollama ollama pull llama2  # 下载 llama2 模型

模型会自动保存到挂载的目录 /data/ollama_models

方法 2:通过主机直接调用
复制代码
curl -X POST http://localhost:11434/api/pull -d '{"name": "llama2"}'

5. 验证模型下载

复制代码
# 查看已下载模型
docker exec -it ollama ollama list

# 检查主机目录内容
ls /data/ollama_models/models

6. 运行模型

复制代码
# 在容器内交互式运行
docker exec -it ollama ollama run llama2

# 通过 API 调用
curl http://localhost:11434/api/generate -d '{"model": "llama2", "prompt": "你好"}'

二、linux本地安装ollama

1. 下载并安装 Ollama

复制代码
# 下载 Ollama
curl -fsSL https://ollama.com/install.sh | sh

# 启动 Ollama 服务
sudo systemctl enable ollama
sudo systemctl start ollama

#停止ollama服务
sudo systemctl stop ollama

2. 设置环境变量指定模型目录

默认情况下,Ollama 会将模型存储在 ~/.ollama 目录。要更改此位置:

复制代码
# 创建新的模型存储目录(例如 /data/ollama_models)
sudo mkdir -p /data/ollama_models
sudo chown -R $USER:$USER /data/ollama_models

# 设置环境变量(临时生效)
export OLLAMA_MODELS=/data/ollama_models

# 使环境变量永久生效
echo "export OLLAMA_MODELS=/data/ollama_models" >> ~/.bashrc
source ~/.bashrc

3. 重启 Ollama 服务使更改生效

复制代码
sudo systemctl restart ollama

4. 验证安装并下载模型

复制代码
# 检查服务状态
systemctl status ollama

# 下载模型(会自动保存到指定目录)
ollama pull llama2

# 运行模型
ollama run llama2

5. (可选) 修改 systemd 服务文件永久设置

复制代码
如果通过环境变量不生效,可以修改服务文件:

sudo vi /etc/systemd/system/ollama.service
在 [Service] 部分添加:

Environment="OLLAMA_MODELS=/data/ollama_models"
然后重新加载并重启服务:

sudo systemctl daemon-reload
sudo systemctl restart ollama

6.查看ollama日志

复制代码
1. 查看详细日志
首先获取更详细的错误信息:

sudo journalctl -u ollama -n 50 --no-pager
或直接运行 Ollama 查看输出:

sudo /usr/local/bin/ollama serve

7. 检查 ollama 用户是否存在

复制代码
运行以下命令检查用户和组是否已创建:

id ollama  # 检查用户是否存在
grep ollama /etc/group  # 检查用户组是否存在

如果不存在,可以手动创建:
sudo useradd -r -s /bin/false ollama  # 创建系统用户(无登录权限)

注意事项:

    1. 确保指定的目录有足够的存储空间

    2. 目录权限要正确,Ollama 进程需要有读写权限

    3. 不同版本的 Ollama 可能有不同的配置方式

相关推荐
maosheng11466 小时前
RHCSA的第一次作业
linux·运维·服务器
wifi chicken6 小时前
Linux 端口扫描及拓展
linux·端口扫描·网络攻击
旺仔.2916 小时前
Linux 信号详解
linux·运维·网络
放飞梦想C6 小时前
CPU Cache
linux·cache
Hoshino.417 小时前
基于Linux中的数据库操作——下载与安装(1)
linux·运维·数据库
恒创科技HK8 小时前
通用型云服务器与计算型云服务器:您真正需要哪些配置?
运维·服务器
吴佳浩 Alben8 小时前
GPU 生产环境实践:硬件拓扑、显存管理与完整运维体系
运维·人工智能·pytorch·语言模型·transformer·vllm
播播资源9 小时前
CentOS系统 + 宝塔面板 部署 OpenClaw源码开发版完整教程
linux·运维·centos
源远流长jerry9 小时前
在 Ubuntu 22.04 上配置 Soft-RoCE 并运行 RDMA 测试程序
linux·服务器·网络·tcp/ip·ubuntu·架构·ip
学不完的9 小时前
Docker数据卷管理及优化
运维·docker·容器·eureka