【AI】通过修改用户环境变量优化Ollama模型加载与访问

文章目录

  • 前言
  • 一、Ollama是什么?
  • 二、使用步骤
    • [1. Ollama模型下载](#1. Ollama模型下载)
    • [2. Ollama可配置环境变量](#2. Ollama可配置环境变量)
    • [3. 常见Ollama属性设置](#3. 常见Ollama属性设置)
      • [3.1 实现外网访问:](#3.1 实现外网访问:)
      • [3.2 模型默认下载切换到D盘](#3.2 模型默认下载切换到D盘)
      • [3.3 模型加载到内存中保持24个小时](#3.3 模型加载到内存中保持24个小时)
      • [3.4 修改默认端口11434端口为8080](#3.4 修改默认端口11434端口为8080)
      • [3.5 设置2个用户并发请求](#3.5 设置2个用户并发请求)
      • [3.6 设置同时加载多个模型](#3.6 设置同时加载多个模型)
  • 总结

前言

最近通过Ollama在本地部署deepseek的帖子甚多,这里不再重复。但使用中,总会发现有不顺手的地方,这就需要通过Ollama参数优化的方法来实现。为方便大家,这里做个简单分享。


一、Ollama是什么?

Ollama是一个开源框架,主要用于在本地机器上运行和管理大型语言模型(LLM),可通过官网下载。

Download Ollama on Windows https://registry.ollama.ai/download/windows

二、使用步骤

1. Ollama模型下载

进入Ollama 官网,选择models就可进行模型下载
https://registry.ollama.ai/search

搜索到模型后,复制相关命令行,在cmd窗口运行即可。

2. Ollama可配置环境变量

OLLAMA_DEBUG: 显示额外的调试信息(例如:LLAMA_DEBUG=1)。

OLLAMA_HOST: Ollama 服务器的 IP 地址(默认值:127.0.0.1:11434)。

OLLAMA_KEEP_ALIVE: 模型在内存中保持加载的时长(默认值:"5m")。

OLLAMA_MAX_LOADED_MODELS: 每个 GPU 上最大加载模型数量。

OLLAMA_MAX_QUEUE: 请求队列的最大长度。

OLLAMA_MODELS: 模型目录的路径。

OLLAMA_NUM_PARALLEL: 最大并行请求数。

OLLAMA_NOPRUNE: 启动时不修剪模型 blob。

OLLAMA_ORIGINS: 允许的源列表,使用逗号分隔。

OLLAMA_SCHED_SPREAD: 始终跨所有 GPU 调度模型。

OLLAMA_TMPDIR: 临时文件的位置。

OLLAMA_FLASH_ATTENTION: 启用 Flash Attention。

OLLAMA_LLM_LIBRARY: 设置 LLM 库以绕过自动检测。

单次加载大模型,可通过临时修改参数,重启ollama serve 来实现。比如,增加并发请求参数OLLAMA_NUM_PARALLEL,启动命令如下:

bash 复制代码
set OLLAMA_NUM_PARALLEL=2
ollama serve

但每次修改太麻烦,有没有一劳永逸的方法,有,请继续往下看。

3. 常见Ollama属性设置

我们在使用Ollama过程中会遇到问题,比如模型镜像默认在C 盘,C盘空间不足需要切换到其他盘符,需要外网访问ollama等。这些问题都是可以借助ollama 属性设置来解决,在windows系统中,增加相应的用户环境变量并参考以下设置相应的变量值即可。

3.1 实现外网访问:

OLLAMA_HOST=0.0.0.0

3.2 模型默认下载切换到D盘

OLLAMA_MODELS=D:\ollama_models

3.3 模型加载到内存中保持24个小时

(默认情况下,模型在卸载之前会在内存中保留 5 分钟)

OLLAMA_KEEP_ALIVE=24h

3.4 修改默认端口11434端口为8080

OLLAMA_HOST=0.0.0.0:8080

3.5 设置2个用户并发请求

OLLAMA_NUM_PARALLEL=2

3.6 设置同时加载多个模型

OLLAMA_MAX_LOADED_MODELS=2


总结

由于Ollama是直接在cmd命令行里运行,所以各种参数需要添加用户环境变量来实现,这个多少有点麻烦。希望以后可以在命令行里直接添加参数,或者使用json等文件修改配置。

相关推荐
B博士30 分钟前
科研进展 | JAG: 大光斑高光谱激光雷达遥感辐射传输模型从垂直视角解锁森林叶绿素分布密码
人工智能·jag·高光谱激光雷达·森林分层叶绿素诊断
Yao.Li1 小时前
PVN3D ORT CUDA Custom Ops 实现与联调记录
人工智能·3d·具身智能
诺伦1 小时前
LocalClaw 在智能制造的新机会:6部门AI+电商政策下的工厂AI升级方案
人工智能·制造
小陈工3 小时前
Python Web开发入门(十七):Vue.js与Python后端集成——让前后端真正“握手言和“
开发语言·前端·javascript·数据库·vue.js·人工智能·python
墨染天姬8 小时前
【AI】端侧AIBOX可以部署哪些智能体
人工智能
AI成长日志8 小时前
【Agentic RL】1.1 什么是Agentic RL:从传统RL到智能体学习
人工智能·学习·算法
2501_948114248 小时前
2026年大模型API聚合平台技术评测:企业级接入层的治理演进与星链4SAPI架构观察
大数据·人工智能·gpt·架构·claude
小小工匠8 小时前
LLM - awesome-design-md 从 DESIGN.md 到“可对话的设计系统”:用纯文本驱动 AI 生成一致 UI 的新范式
人工智能·ui
黎阳之光8 小时前
黎阳之光:视频孪生领跑者,铸就中国数字科技全球竞争力
大数据·人工智能·算法·安全·数字孪生
小超同学你好8 小时前
面向 LLM 的程序设计 6:Tool Calling 的完整生命周期——从定义、决策、执行到观测回注
人工智能·语言模型