ubuntu中ollama设置记录

自己同一台电脑主机安装3080和3090显卡,测试发现ollama只默认跑在3090上;故查看一下设置,成功也把3080也运行起来了。

原因如下:

开始设置记录:

复制代码
Environment Variables:
OLLAMA_DEBUG
作用:显示额外的调试信息。
示例:export OLLAMA_DEBUG=1

OLLAMA_HOST
作用:指定 ollama 服务器的 IP 地址和端口(默认为 127.0.0.1:11434)。
示例:export OLLAMA_HOST=0.0.0.0:8080

OLLAMA_KEEP_ALIVE
作用:设置模型在内存中保持加载的时间(默认为 5m)。
示例:export OLLAMA_KEEP_ALIVE="10m"

OLLAMA_MAX_LOADED_MODELS
作用:指定每个 GPU 上可以同时加载的最大模型数。

OLLAMA_MAX_QUEUE
作用:设置允许排队的最大请求数量。

OLLAMA_MODELS
作用:指定存储模型的目录路径。

OLLAMA_NUM_PARALLEL
作用:设置允许同时处理的最大并行请求数量。

OLLAMA_NOPRUNE
作用:禁用启动时清理模型 blob 文件的功能。

OLLAMA_ORIGINS
作用:指定允许的跨域请求来源(以逗号分隔)。
示例:export OLLAMA_ORIGINS="http://example.com,https://localhost"

OLLAMA_SCHED_SPREAD
作用:强制将模型均匀分配到所有 GPU 上。

OLLAMA_FLASH_ATTENTION
作用:启用 Flash Attention(加速注意力机制)。

OLLAMA_KV_CACHE_TYPE
作用:设置 K/ V 缓存的量化类型(默认为 f16)。
示例:export OLLAMA_KV_CACHE_TYPE="q4_0"

OLLAMA_LLM_LIBRARY
作用:指定 LLM 库以绕过自动检测。

OLLAMA_GPU_OVERHEAD
作用:为每个 GPU 预留一部分 VRAM(以字节为单位)。

OLLAMA_LOAD_TIMEOUT
作用:设置模型加载的最大等待时间(默认为 5m)。
示例:export OLLAMA_LOAD_TIMEOUT="10m"

自己按照自己需求设置

复制代码
(phi) root@cl-System-Product-Name:/home/cl/桌面/临床数据# cat /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_NUM_PARALLEL=4"
Environment="OLLAMA_MAX_LOADED_MODELS=2"
Environment="CUDA_VISIBLE_DEVICES=0,1"
Environment="OLLAMA_SCHED_SPREAD=true"
DeviceAllow=gpu/*
[Install]
WantedBy=default.target

systemctl daemon-reload

systemctl restart ollama.service

确保ollama服务正常运行

systemctl status ollama.service

相关推荐
ascarl20103 小时前
记录一下es节点掉线后修复好了的情况
运维·jenkins
j***29483 小时前
IPV6公网暴露下的OPENWRT防火墙安全设置(只允许访问局域网中指定服务器指定端口其余拒绝)
服务器·安全·php
ao_lang3 小时前
数据链路层
linux·服务器·网络
safestar20123 小时前
Elasticsearch深度实战:从分布式原理到生产环境踩坑全记录
运维·搜索引擎·全文检索·es
额呃呃3 小时前
零拷贝I/O的核心概念
服务器·php·apache
小兔薯了4 小时前
7. LNMP-wordpress
android·运维·服务器·数据库·nginx·php
福尔摩斯张4 小时前
Linux进程间通信(IPC)机制深度解析与实践指南
linux·运维·服务器·数据结构·c++·算法
老前端的功夫4 小时前
前端技术选型的理性之道:构建可量化的ROI评估模型
前端·javascript·人工智能·ubuntu·前端框架
Protein_zmm5 小时前
Wireshark实验一:Web 浏览器与服务器的协议报文捕获与分析
服务器·测试工具·wireshark
cookies_s_s5 小时前
项目--协程库(C++)前置知识篇
linux·服务器·c++