【AI】通过修改用户环境变量优化Ollama模型加载与访问

文章目录

  • 前言
  • 一、Ollama是什么?
  • 二、使用步骤
    • [1. Ollama模型下载](#1. Ollama模型下载)
    • [2. Ollama可配置环境变量](#2. Ollama可配置环境变量)
    • [3. 常见Ollama属性设置](#3. 常见Ollama属性设置)
      • [3.1 实现外网访问:](#3.1 实现外网访问:)
      • [3.2 模型默认下载切换到D盘](#3.2 模型默认下载切换到D盘)
      • [3.3 模型加载到内存中保持24个小时](#3.3 模型加载到内存中保持24个小时)
      • [3.4 修改默认端口11434端口为8080](#3.4 修改默认端口11434端口为8080)
      • [3.5 设置2个用户并发请求](#3.5 设置2个用户并发请求)
      • [3.6 设置同时加载多个模型](#3.6 设置同时加载多个模型)
  • 总结

前言

最近通过Ollama在本地部署deepseek的帖子甚多,这里不再重复。但使用中,总会发现有不顺手的地方,这就需要通过Ollama参数优化的方法来实现。为方便大家,这里做个简单分享。


一、Ollama是什么?

Ollama是一个开源框架,主要用于在本地机器上运行和管理大型语言模型(LLM),可通过官网下载。

Download Ollama on Windows https://registry.ollama.ai/download/windows

二、使用步骤

1. Ollama模型下载

进入Ollama 官网,选择models就可进行模型下载
https://registry.ollama.ai/search

搜索到模型后,复制相关命令行,在cmd窗口运行即可。

2. Ollama可配置环境变量

OLLAMA_DEBUG: 显示额外的调试信息(例如:LLAMA_DEBUG=1)。

OLLAMA_HOST: Ollama 服务器的 IP 地址(默认值:127.0.0.1:11434)。

OLLAMA_KEEP_ALIVE: 模型在内存中保持加载的时长(默认值:"5m")。

OLLAMA_MAX_LOADED_MODELS: 每个 GPU 上最大加载模型数量。

OLLAMA_MAX_QUEUE: 请求队列的最大长度。

OLLAMA_MODELS: 模型目录的路径。

OLLAMA_NUM_PARALLEL: 最大并行请求数。

OLLAMA_NOPRUNE: 启动时不修剪模型 blob。

OLLAMA_ORIGINS: 允许的源列表,使用逗号分隔。

OLLAMA_SCHED_SPREAD: 始终跨所有 GPU 调度模型。

OLLAMA_TMPDIR: 临时文件的位置。

OLLAMA_FLASH_ATTENTION: 启用 Flash Attention。

OLLAMA_LLM_LIBRARY: 设置 LLM 库以绕过自动检测。

单次加载大模型,可通过临时修改参数,重启ollama serve 来实现。比如,增加并发请求参数OLLAMA_NUM_PARALLEL,启动命令如下:

bash 复制代码
set OLLAMA_NUM_PARALLEL=2
ollama serve

但每次修改太麻烦,有没有一劳永逸的方法,有,请继续往下看。

3. 常见Ollama属性设置

我们在使用Ollama过程中会遇到问题,比如模型镜像默认在C 盘,C盘空间不足需要切换到其他盘符,需要外网访问ollama等。这些问题都是可以借助ollama 属性设置来解决,在windows系统中,增加相应的用户环境变量并参考以下设置相应的变量值即可。

3.1 实现外网访问:

OLLAMA_HOST=0.0.0.0

3.2 模型默认下载切换到D盘

OLLAMA_MODELS=D:\ollama_models

3.3 模型加载到内存中保持24个小时

(默认情况下,模型在卸载之前会在内存中保留 5 分钟)

OLLAMA_KEEP_ALIVE=24h

3.4 修改默认端口11434端口为8080

OLLAMA_HOST=0.0.0.0:8080

3.5 设置2个用户并发请求

OLLAMA_NUM_PARALLEL=2

3.6 设置同时加载多个模型

OLLAMA_MAX_LOADED_MODELS=2


总结

由于Ollama是直接在cmd命令行里运行,所以各种参数需要添加用户环境变量来实现,这个多少有点麻烦。希望以后可以在命令行里直接添加参数,或者使用json等文件修改配置。

相关推荐
rundreamsFly6 小时前
【云馨AI】基于 AI 的 COSMIC智能文档工具 第二代功能点评估:从效率到精准度的全面升级
人工智能·cosmic编写·cosmic
北京耐用通信6 小时前
调试复杂、适配难?耐达讯自动化Ethercat转Devicenet让继电器通讯少走弯路
人工智能·物联网·网络协议·自动化·信息与通信
人工智能教学实践6 小时前
AI大模型时代,计算机视觉课程如何™教”与“学”?
人工智能·计算机视觉
智源研究院6 小时前
智源开源 Reason-RFT:用强化学习重塑视觉推理,突破 VLM 泛化瓶颈
人工智能
DFT计算杂谈6 小时前
ABINIT能带计算数据处理脚本
数据库·人工智能
BioRunYiXue6 小时前
双荧光素酶报告基因实验
java·运维·服务器·数据库·人工智能·数据挖掘·eclipse
数据皮皮侠6 小时前
政府创新采购数据库(2016-2024)
大数据·数据库·人工智能·制造·微信开放平台
综合热讯6 小时前
泛微发布数智业财融合创新方案,AI驱动组织构建“业·财·票·税·档”一体化
大数据·人工智能
捷智算云服务6 小时前
A100云主机租赁价格贵吗?具体费用是多少?
服务器·人工智能·云计算·gpu算力
LYFlied6 小时前
Vue Vapor模式与AI时代前端发展的思考:虚拟DOM与框架的未来
前端·vue.js·人工智能·前端框架