linux安装ollama

俩种方式都可

一、linux通过docker安装ollama镜像

1.下载安装ollama镜像

复制代码
# 安装 Docker
sudo yum install docker
sudo systemctl start docker

#docker查看所有容器
docker ps -a  # 查看所有容器

# docker查看指定容器
docker ps -a |grep ollama

# 创建模型存储目录(例如 /data/ollama_models)
sudo mkdir -p /data/ollama_models
sudo chmod -R 777 /data/ollama_models  # 确保容器有写入权限

# 启动容器并挂载目录
docker run -d \
  --name ollama \
  -v /data/ollama_models:/root/.ollama \  # 将主机目录挂载到容器内
  -p 11434:11434 \
  ollama/ollama

#修改默认模型存储路径
如果不想挂载 /root/.ollama,可通过环境变量指定其他路径:
docker run -d \
  --name ollama \
  -v /custom/models:/data/ollama_models \  # 自定义挂载点
  -e OLLAMA_MODELS=/data/ollama_models \   # 指定容器内路径
  -p 11434:11434 \
  ollama/ollama


# 停止容器
docker stop ollama

# 启动
docker start ollama

# 重启动
docker restart ollama

#如果ollama正在运行并且不需要ollama了,删除
docker stop ollama && docker rm ollama

2.检查目录挂载 (-v) 是否生效

复制代码
#检查目录挂载 (-v) 是否生效
方法 1:使用 docker inspect 查看挂载信息
docker inspect ollama | grep -A 5 Mounts

方法2:
# 进入容器内部
docker exec -it ollama bash

# 查看目录是否存在
ls -l /data/ollama_models

# 尝试创建测试文件(验证写入权限)
touch /data/ollama_models/test.txt
exit

# 返回主机检查文件是否同步
ls -l /custom/models/test.txt

3.检查环境变量 (-e) 是否生效

复制代码
方法 1:使用 docker inspect 查看环境变量
docker inspect ollama | grep -A 10 Env
预期输出
"Env": [
    "OLLAMA_MODELS=/data/ollama_models",
    "PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"
]




方法 2:在容器内打印环境变量
docker exec -it ollama sh -c 'echo $OLLAMA_MODELS'
预期输出/data/ollama_models

4.下载大模型

进入容器内操作或直接通过 REST API 下载模型:

方法 1:进入容器内操作

大模型占用内存一般较高,最好查一下电脑配置是否能带动大模型

复制代码
docker exec -it ollama ollama pull llama2  # 下载 llama2 模型

模型会自动保存到挂载的目录 /data/ollama_models

方法 2:通过主机直接调用
复制代码
curl -X POST http://localhost:11434/api/pull -d '{"name": "llama2"}'

5. 验证模型下载

复制代码
# 查看已下载模型
docker exec -it ollama ollama list

# 检查主机目录内容
ls /data/ollama_models/models

6. 运行模型

复制代码
# 在容器内交互式运行
docker exec -it ollama ollama run llama2

# 通过 API 调用
curl http://localhost:11434/api/generate -d '{"model": "llama2", "prompt": "你好"}'

二、linux本地安装ollama

1. 下载并安装 Ollama

复制代码
# 下载 Ollama
curl -fsSL https://ollama.com/install.sh | sh

# 启动 Ollama 服务
sudo systemctl enable ollama
sudo systemctl start ollama

#停止ollama服务
sudo systemctl stop ollama

2. 设置环境变量指定模型目录

默认情况下,Ollama 会将模型存储在 ~/.ollama 目录。要更改此位置:

复制代码
# 创建新的模型存储目录(例如 /data/ollama_models)
sudo mkdir -p /data/ollama_models
sudo chown -R $USER:$USER /data/ollama_models

# 设置环境变量(临时生效)
export OLLAMA_MODELS=/data/ollama_models

# 使环境变量永久生效
echo "export OLLAMA_MODELS=/data/ollama_models" >> ~/.bashrc
source ~/.bashrc

3. 重启 Ollama 服务使更改生效

复制代码
sudo systemctl restart ollama

4. 验证安装并下载模型

复制代码
# 检查服务状态
systemctl status ollama

# 下载模型(会自动保存到指定目录)
ollama pull llama2

# 运行模型
ollama run llama2

5. (可选) 修改 systemd 服务文件永久设置

复制代码
如果通过环境变量不生效,可以修改服务文件:

sudo vi /etc/systemd/system/ollama.service
在 [Service] 部分添加:

Environment="OLLAMA_MODELS=/data/ollama_models"
然后重新加载并重启服务:

sudo systemctl daemon-reload
sudo systemctl restart ollama

6.查看ollama日志

复制代码
1. 查看详细日志
首先获取更详细的错误信息:

sudo journalctl -u ollama -n 50 --no-pager
或直接运行 Ollama 查看输出:

sudo /usr/local/bin/ollama serve

7. 检查 ollama 用户是否存在

复制代码
运行以下命令检查用户和组是否已创建:

id ollama  # 检查用户是否存在
grep ollama /etc/group  # 检查用户组是否存在

如果不存在,可以手动创建:
sudo useradd -r -s /bin/false ollama  # 创建系统用户(无登录权限)

注意事项:

    1. 确保指定的目录有足够的存储空间

    2. 目录权限要正确,Ollama 进程需要有读写权限

    3. 不同版本的 Ollama 可能有不同的配置方式

相关推荐
Le1Yu25 分钟前
微服务拆分以及注册中心
linux·运维·服务器
code_ing-28 分钟前
【Linux】Linux基本指令
linux·笔记
zzzsde42 分钟前
【Linux】linux基础指令入门(1)
linux·运维·学习
moxiaoran57531 小时前
nginx中proxy_pass配置
运维·服务器·nginx
uxiang_blog1 小时前
Linux下如何在vim里使用异步编译和运行?
linux·vim·asynctasks.vim·asyncrun.vim
weixin_379880921 小时前
.Net Core WebApi集成Swagger
java·服务器·.netcore
leellun1 小时前
在Centos上安装Python指定版本
linux·运维·centos
她说彩礼65万1 小时前
Asp.net core Kestrel服务器详解
服务器·后端·asp.net
用户31187945592182 小时前
CentOS 7 安装 bzip2-libs-1.0.6-13.el7.x86_64.rpm 的详细步骤
linux