⭐Ollama的本地安装⚡

先来逛一下咱们的主角Ollama的官网地址:

Ollama

大概长这个样子🤔

因为本地系统的原因,文章只提供Widows的安装方式,使用Linux和Mac的大佬,可以自行摸索🧐

下载完成后就是安装了🍕,安装完后就是大概这个样子⛅


先打开cmd控制台黑窗口,下载个gemma:2b大模型耍一耍🐳

bash 复制代码
ollama run gemma:2b

这个命令执行后,会将大模型文件下载到本地,下载成功后,就可以愉快的和大模型聊天了,大概是这个样子🐞

如果单纯只拉取大模型到本地,不运行可以执行这个命令

bash 复制代码
ollama pull gemma:2b

删除本地大模型

bash 复制代码
ollama rm gemma:2b

OK,Ollama在本地安装成功后,下一节咱们会脱离这个黑窗口,利用ollama提供的rest api接口利用Python语言与自然语言大模型进行交互。🦍

相关推荐
程序员鱼皮2 小时前
67个AI编程必会知识,1.6w字一次讲透!女友:“你要考研啊?!”
ai·程序员·编程·ai编程·vibe coding
后端AI实验室1 天前
我用Cursor开发了3个月,整理出这套提效4倍的工作流
java·ai
牧马人win1 天前
Microsoft Agent Framework 详解与实践
ai
妙妙屋(zy)1 天前
Windows系统安装OpenClaw并使用Qwen千问接入飞书教程 🤖
ai
Johny_Zhao2 天前
OpenClaw安装部署教程
linux·人工智能·ai·云计算·系统运维·openclaw
孤竹笑傲2 天前
AI的降维打击
ai
程序员鱼皮2 天前
又一个新项目完结,我要出海了!
ai·github·开源项目
GPUStack3 天前
Token 不再焦虑:用 GPUStack + OpenClaw 搭一个“无限用”的本地 AI 助手
ai·模型推理·gpustack·openclaw