ollama+ollama-webu在windos上部署的教程

ollama+ollama-webu在windos上部署的教程

首先介绍一下ollama:

Ollama 是一种为快速大规模语言模型推理所设计的框架和平台。它旨在帮助用户通过高效的方式运行和管理大型语言模型,支持在不同硬件环境中进行优化计算。Ollama 可以利用各种硬件加速器(如 GPU 和 TPU),并通过分布式计算框架实现快速的推理和训练。

其主要特点包括:

  1. 高效推理:Ollama 通过专门的优化算法和分布式架构,能够大幅度提升大规模语言模型的推理效率,减少计算资源的使用,同时提供实时推理的能力。
  2. 硬件兼容性:支持多种硬件加速器,如 NVIDIA GPU 和 Google TPU,以最大化模型运行时的性能。
  3. 模型管理:为用户提供了便捷的模型管理功能,可以轻松加载、部署和切换不同的模型。
  4. 可扩展性:允许用户根据需求调整资源配置,支持多个节点的分布式计算,以处理大型模型或数据集。
  5. 用户友好性:提供了简单易用的 API 和命令行工具,方便开发者和研究人员在不同的环境中快速启动和运行。

一、需要准备的环境和代码

  • ollama.exe下载:https://ollama.com/

  • ollamawebui代码下载:git clone https://github.com/ollama-webui/ollama-webui-lite

二、开始部署

  1. 下载并安装 Node.js 工具:https://nodejs.org/zh-cn
  2. 下载ollama-webui工程代码:git clone https://github.com/ollama-webui/ollama-webui-lite ollama-webui
  3. 切换ollama-webui代码的目录:cd ollama-webui
  4. 设置 Node.js 工具包镜像源(下载提速):npm config set registry http://mirrors.cloud.tencent.com/npm/
  5. 初始化npm:npm init -f
  6. 安装 Node.js 依赖的工具包:npm install
  7. 最后,启动 Web 可视化界面:npm run dev
    到这里就会出现几个网站:

    打开http://localhost:4000/
    就可以进行使用了,

1. 修改系统变量:

打开cmd,设置模型下载的位置,ollama的接收端口,设置完以下后都要重启一下ollama,或者重启电脑

bash 复制代码
 # 永久指定
setx OLLAMA_MODELS "D:\Ollama\Models"
# 临时指定
set OLLAMA_MODELS="D:\Ollama\Models"

setx OLLAMA_HOST "0.0.0.0"
setx OLLAMA_ORIGINS "*"

# 查看环境变量
echo %OLLAMA_ORIGINS%

○ OLLAMA_MODELS:可以定义Ollama下载模型的位置

ollama常用的设置环境变量

  1. OLLAMA_MODELS:模型文件存放目录,默认目录为当前用户目录(Windows 目录:C:\Users%username%.ollama\models,MacOS 目录:~/.ollama/models,Linux 目录:/usr/share/ollama/.ollama/models),如果是 Windows 系统建议修改(如:D:),避免 C 盘空间吃紧
  2. OLLAMA_HOST:Ollama 服务监听的网络地址,默认为127.0.0.1,如果允许其他电脑访问 Ollama(如:局域网中的其他电脑),建议设置成0.0.0.0,从而允许其他网络访问
  3. OLLAMA_PORT:Ollama 服务监听的默认端口,默认为11434,如果端口有冲突,可以修改设置成其他端口(如:8080等)
  4. OLLAMA_ORIGINS:HTTP 客户端请求来源,半角逗号分隔列表,若本地使用无严格要求,可以设置成星号,代表不受限制
  5. OLLAMA_KEEP_ALIVE:大模型加载到内存中后的存活时间,默认为5m即 5 分钟(如:纯数字如 300 代表 300 秒,0 代表处理请求响应后立即卸载模型,任何负数则表示一直存活);我们可设置成24h,即模型在内存中保持 24 小时,提高访问速度
  6. OLLAMA_NUM_PARALLEL:请求处理并发数量,默认为1,即单并发串行处理请求,可根据实际情况进行调整
  7. OLLAMA_MAX_QUEUE:请求队列长度,默认值为512,可以根据情况设置,超过队列长度请求被抛弃
  8. OLLAMA_DEBUG:输出 Debug 日志标识,应用研发阶段可以设置成1,即输出详细日志信息,便于排查问题
  9. OLLAMA_MAX_LOADED_MODELS:最多同时加载到内存中模型的数量,默认为1,即只能有 1 个模型在内存中

常见问题

Windows系统,提示错误 Error:Could not connect to ollama app, is it running

说明没有正确启动,1. 重新启动电脑,再次尝试。2. 关闭ollama程序,以管理员身份重新启动ollama

相关推荐
焦耳加热15 分钟前
阿德莱德大学Nat. Commun.:盐模板策略实现废弃塑料到单原子催化剂的高值转化,推动环境与能源催化应用
人工智能·算法·机器学习·能源·材料工程
深空数字孪生17 分钟前
储能调峰新实践:智慧能源平台如何保障风电消纳与电网稳定?
大数据·人工智能·物联网
wan5555cn22 分钟前
多张图片生成视频模型技术深度解析
人工智能·笔记·深度学习·算法·音视频
格林威1 小时前
机器视觉检测的光源基础知识及光源选型
人工智能·深度学习·数码相机·yolo·计算机视觉·视觉检测
今天也要学习吖2 小时前
谷歌nano banana官方Prompt模板发布,解锁六大图像生成风格
人工智能·学习·ai·prompt·nano banana·谷歌ai
Hello123网站2 小时前
glean-企业级AI搜索和知识发现平台
人工智能·产品运营·ai工具
AKAMAI2 小时前
Queue-it 为数十亿用户增强在线体验
人工智能·云原生·云计算
索迪迈科技2 小时前
INDEMIND亮相2025科技创变者大会,以机器人空间智能技术解锁具身智能新边界
人工智能·机器人·扫地机器人·空间智能·陪伴机器人
栒U2 小时前
一文从零部署vLLM+qwen0.5b(mac本地版,不可以实操GPU单元)
人工智能·macos·vllm
沫儿笙3 小时前
FANUC发那科焊接机器人铝材焊接节气
人工智能·机器人