穷鬼快乐AI工具Ollama

不用钱,免费玩AI!是时候用Ollama搞个简单的本地AI大模型,保护自己的钱包!ollama有客户端又有服务接口可调用,真是快乐的穷鬼AI工具!

1. ollama安装与使用

什么是ollama?

Ollama 是一个开源模型管理器与推理引擎,专为简化本地 AI 模型部署和运行设计。它允许用户通过简单的命令(如 ollama serve)快速启动本地大语言模型服务,无需依赖复杂的服务器环境或云端网络。主要特点包括:

  1. 极简部署:只需在终端执行指令即可直接运行本地大模型。
  2. 轻量级:使用 Docker 容器化技术,支持高效多用户并发服务。
  3. 兼容主流格式:支持 GGUF、T5、BLOOM 等常见模型格式的本地加载与推理。
  4. 隐私友好:数据不上传至云端,适合对隐私有要求的个人或企业环境。

适合用于个人 AI 助手开发、本地知识库训练等场景,尤其推荐给需要控制部署环境和提升计算效率的用户。

安装与使用

打开ollama官网,下载安装包https://ollama.com/download,我这里是window电脑,下载OllamaSetup.exe

安装完后,打开cmd命令窗口,输入指令查看版本,看看是否成功安装!

然后到ollama的官方查一下可下载的开源的大模型https://ollama.com/search

打开Qwen3.5大模型,查看一下模型版本,2b代表20亿参数,参数越多,大模型越聪明,相对需要的资源越多。

不知道自己的电脑配置能装什么版本,可以到unsloth.ai看看配置要求

以下unsloth :https://unsloth.ai/docs/zh/mo-xing/qwen3.5 关于Qwen3.5的配置要求

我的渣渣笔记本电脑16G内存,没独立显卡,装个qwen3.5:2b不用卡死!

执行ollama pull安装模型,因为模型比较大,下载需要时间,耐心等待

sh 复制代码
ollama pull qwen3.5:2b

打开ollama客户端,选择已安装的模型,测试使用一下模型

emmm,不用钱的30秒回答一个问题,还可以接受啦~

2. ollama的一些常用命令

查看已安装的模型

sh 复制代码
ollama list

查看当前运行的模型

sh 复制代码
ollama ps

使用某个模型

sh 复制代码
ollama run qwen3.5:2b

run是如果模型未安装,会先下载完再运行模型,pull是只下载不运行

模型开启思考过程的话,需要等待较长时间,想要直接得到答案,可以禁用思考

sh 复制代码
# 启用思考
ollama run qwen3.5:2b --think
# 禁用思考
ollama run qwen3.5:2b --think=false

删除模型

sh 复制代码
ollama rm 模型名称

运行服务

sh 复制代码
ollama serve

默认启动的访问路径是127.0.0.1:11434,但是可以通过配置系统环境变量可以修改IP地址和端口,让别人可以通过IP访问ollama服务

sh 复制代码
OLLAMA_HOST=10.1.x.x:11434//改成自己本地的IP地址和端口

可以执行帮助命令查看服务可配置的环境变量

sh 复制代码
ollama serve --help

更多的ollama命令请看官方文档https://docs.ollama.com/cli

3.调用ollama服务与大模型聊天

直接API请求

通过axios、fetch等请求访问ollama服务,详细Ollama API使用请看docs.ollama.com/api/introdu...

js 复制代码
import axios from 'axios';
axios({
  method: 'GET',
  //查看可用模型
  url: 'http://10.1.x.x:11434/api/tags' //替换成自己的IP地址和端口
}).then(({data: res}) => {
  console.log('🚀 ~ index.js ~ res:', res);
});

发起聊天

js 复制代码
const question = '请简单回答,为什么天空是蓝色的?';
console.log('question', question);
const start = Date.now();
axios({
  method: 'POST',
  url: 'http://10.1.x.x:11434/api/chat', //替换成自己的IP地址和端口
  data: {
    model: 'qwen3.5:2b',
    //是否启用思考过程,false禁用
    think: false,
    //流式输出,false禁用
    stream: false,
    messages: [
      {
        role: 'user',
        content: question
      }
    ]
  }
}).then(({data: res}) => {
  console.log('answer:', res);
  console.log('time:', (Date.now() - start) / 1000, 's');
});

通过ollama js库

可以通过官方ollama js库来访问ollama服务

sh 复制代码
pnpm add ollama

配置ollama的服务地址,查看可用模型

ts 复制代码
import {Ollama} from 'ollama';
async function main() {
  //连接ollama服务
  const ollama = new Ollama({
    host: 'http://10.1.x.x:11434', //替换成自己的IP地址和端口
    // 如果配置了API KEY,需填写,用于权限校验
    headers: {Authorization: 'Bearer ' + process.env.OLLAMA_API_KEY}
  });
  //查看可用模型
  const list = await ollama.list();
  if (list) {
    console.log('available models:', list);
  }
}
main().catch(console.error);

请求ollama服务,使用模型发起聊天,等待输出的结果

ts 复制代码
const question = '请简单回答,为什么天空是蓝色的?';
console.log('question', question);
const start = Date.now();
const response = await ollama.chat({
  //使用模型
  model: 'qwen3.5:2b',
  //聊天消息
  messages: [{role: 'user', content: question}],
  //是否流式输出
  stream: false,
  //是否启用思考过程
  think: false
});

console.log('answer:', response);

//中断请求
// response.abort();
console.log('time:', (Date.now() - start) / 1000, 's');

不论通过命令行、axios、客户端、js库等方式调用ollama的大模型服务,期间都会打印相关接口的访问日志

4.总结

本文仅仅简单介绍了ollama工具的使用,有很多复杂的配置和功能可以自行到官网探讨,官方文档都讲得很详细的。

另外,推荐结合langChain使用Ollama的大模型服务,特别好用!

参考

  • Ollama:https://ollama.com/
  • Qwen千问AI:https://www.qianwen.com/
  • unsloth:https://unsloth.ai/
相关推荐
土豆125021 小时前
LangGraph TypeScript 版入门与实践
人工智能·llm
土豆125021 小时前
OpenSpec:让 AI 编码助手从"乱猜"到"照单执行"
人工智能·llm
Thomas.Sir21 小时前
第二章:LlamaIndex 的基本概念
人工智能·python·ai·llama·llamaindex
m0_694845571 天前
Dify部署教程:从AI原型到生产系统的一站式方案
服务器·人工智能·python·数据分析·开源
LS_learner1 天前
VS Code 终端默认配置从 PowerShell 改为 CMD
人工智能
这是个栗子1 天前
TypeScript(三)
前端·javascript·typescript·react
小毅&Nora1 天前
【人工智能】【大模型】大模型“全家桶”到“精兵简政”:企业AI落地的理性进化之路
人工智能·大模型·平安科技
KaneLogger1 天前
如何把AI方面的先发优势转化为结构优势
人工智能·程序员·架构
冬奇Lab1 天前
一天一个开源项目(第67篇):OpenClaw-Admin - AI Agent 网关的可视化管理驾驶舱
人工智能·开源·资讯
飞哥数智坊1 天前
【大纲】TRAE AI 编程入门第四讲——打破编程界限的智能体
人工智能·ai编程·trae