windows安装使用Ollama

简介

Ollama是时下最容易部署本地大模型的工具了,可以把Ollama比做成docker,用户管理容器,而它是管理大模型

下载安装

点击访问https://ollama.com/download,下载windows版本,下载好后,不要直接点击安装,默认路径是在c盘,占空间,需要自定义安装,将exe文件复制到自定义路径。

打开终端输入

复制代码
.\OllamaSetup.exe /DIR=D:\Ollama


配置model环境变量

打开C:\Users\用户名.ollama目录,复制models目录到自定义安装的目录里,然后删除掉

新建环境变量OLLAMA_MODELS=D:\Ollama\models

环境变量Path里配置Ollama安装路径D:\Ollama

验证

重启Ollama,打开终端输入ollama list,查看大模型资源包是否正常展示。ollama默认安装端口是11434

安装大模型

安装qwen3:4b试试水,终端里输入ollama run qwen3:4b

打开自定义的models文件夹里的blobs,里面就是安装下载的大模型

模型安装成功

相关推荐
SCBAiotAigc2 天前
在Ubuntu上使用docker compose安装普通(不支持GPU)的Ollama服务
人工智能·python·ubuntu·ollama
fanruitian3 天前
windows安装离线大模型 ollama qwen
大模型·qwen·ollama
福大大架构师每日一题4 天前
ollama v0.13.5 发布详解:新模型接入、引擎升级与工具能力增强
ollama
咩图5 天前
使用ollama完成私有大模型搭建
大模型·ollama·私有化
福大大架构师每日一题5 天前
ollama v0.13.4 发布——全新模型与性能优化详解
stm32·嵌入式硬件·性能优化·ollama
thginWalker7 天前
本地安装Ollama并使用Python调用
ollama
大模型教程8 天前
使用Langchain4j和Ollama3搭建RAG系统
langchain·llm·ollama
scx_link11 天前
使用docker安装ollama及ollama拉取模型的总结
运维·docker·容器·ollama
福大大架构师每日一题12 天前
ollama v0.13.2 最新更新详解:Qwen3-Next首发与性能优化
性能优化·ollama