穷鬼快乐AI工具Ollama

不用钱,免费玩AI!是时候用Ollama搞个简单的本地AI大模型,保护自己的钱包!ollama有客户端又有服务接口可调用,真是快乐的穷鬼AI工具!

1. ollama安装与使用

什么是ollama?

Ollama 是一个开源模型管理器与推理引擎,专为简化本地 AI 模型部署和运行设计。它允许用户通过简单的命令(如 ollama serve)快速启动本地大语言模型服务,无需依赖复杂的服务器环境或云端网络。主要特点包括:

  1. 极简部署:只需在终端执行指令即可直接运行本地大模型。
  2. 轻量级:使用 Docker 容器化技术,支持高效多用户并发服务。
  3. 兼容主流格式:支持 GGUF、T5、BLOOM 等常见模型格式的本地加载与推理。
  4. 隐私友好:数据不上传至云端,适合对隐私有要求的个人或企业环境。

适合用于个人 AI 助手开发、本地知识库训练等场景,尤其推荐给需要控制部署环境和提升计算效率的用户。

安装与使用

打开ollama官网,下载安装包https://ollama.com/download,我这里是window电脑,下载OllamaSetup.exe

安装完后,打开cmd命令窗口,输入指令查看版本,看看是否成功安装!

然后到ollama的官方查一下可下载的开源的大模型https://ollama.com/search

打开Qwen3.5大模型,查看一下模型版本,2b代表20亿参数,参数越多,大模型越聪明,相对需要的资源越多。

不知道自己的电脑配置能装什么版本,可以到unsloth.ai看看配置要求

以下unsloth :https://unsloth.ai/docs/zh/mo-xing/qwen3.5 关于Qwen3.5的配置要求

我的渣渣笔记本电脑16G内存,没独立显卡,装个qwen3.5:2b不用卡死!

执行ollama pull安装模型,因为模型比较大,下载需要时间,耐心等待

sh 复制代码
ollama pull qwen3.5:2b

打开ollama客户端,选择已安装的模型,测试使用一下模型

emmm,不用钱的30秒回答一个问题,还可以接受啦~

2. ollama的一些常用命令

查看已安装的模型

sh 复制代码
ollama list

查看当前运行的模型

sh 复制代码
ollama ps

使用某个模型

sh 复制代码
ollama run qwen3.5:2b

run是如果模型未安装,会先下载完再运行模型,pull是只下载不运行

模型开启思考过程的话,需要等待较长时间,想要直接得到答案,可以禁用思考

sh 复制代码
# 启用思考
ollama run qwen3.5:2b --think
# 禁用思考
ollama run qwen3.5:2b --think=false

删除模型

sh 复制代码
ollama rm 模型名称

运行服务

sh 复制代码
ollama serve

默认启动的访问路径是127.0.0.1:11434,但是可以通过配置系统环境变量可以修改IP地址和端口,让别人可以通过IP访问ollama服务

sh 复制代码
OLLAMA_HOST=10.1.x.x:11434//改成自己本地的IP地址和端口

可以执行帮助命令查看服务可配置的环境变量

sh 复制代码
ollama serve --help

更多的ollama命令请看官方文档https://docs.ollama.com/cli

3.调用ollama服务与大模型聊天

直接API请求

通过axios、fetch等请求访问ollama服务,详细Ollama API使用请看docs.ollama.com/api/introdu...

js 复制代码
import axios from 'axios';
axios({
  method: 'GET',
  //查看可用模型
  url: 'http://10.1.x.x:11434/api/tags' //替换成自己的IP地址和端口
}).then(({data: res}) => {
  console.log('🚀 ~ index.js ~ res:', res);
});

发起聊天

js 复制代码
const question = '请简单回答,为什么天空是蓝色的?';
console.log('question', question);
const start = Date.now();
axios({
  method: 'POST',
  url: 'http://10.1.x.x:11434/api/chat', //替换成自己的IP地址和端口
  data: {
    model: 'qwen3.5:2b',
    //是否启用思考过程,false禁用
    think: false,
    //流式输出,false禁用
    stream: false,
    messages: [
      {
        role: 'user',
        content: question
      }
    ]
  }
}).then(({data: res}) => {
  console.log('answer:', res);
  console.log('time:', (Date.now() - start) / 1000, 's');
});

通过ollama js库

可以通过官方ollama js库来访问ollama服务

sh 复制代码
pnpm add ollama

配置ollama的服务地址,查看可用模型

ts 复制代码
import {Ollama} from 'ollama';
async function main() {
  //连接ollama服务
  const ollama = new Ollama({
    host: 'http://10.1.x.x:11434', //替换成自己的IP地址和端口
    // 如果配置了API KEY,需填写,用于权限校验
    headers: {Authorization: 'Bearer ' + process.env.OLLAMA_API_KEY}
  });
  //查看可用模型
  const list = await ollama.list();
  if (list) {
    console.log('available models:', list);
  }
}
main().catch(console.error);

请求ollama服务,使用模型发起聊天,等待输出的结果

ts 复制代码
const question = '请简单回答,为什么天空是蓝色的?';
console.log('question', question);
const start = Date.now();
const response = await ollama.chat({
  //使用模型
  model: 'qwen3.5:2b',
  //聊天消息
  messages: [{role: 'user', content: question}],
  //是否流式输出
  stream: false,
  //是否启用思考过程
  think: false
});

console.log('answer:', response);

//中断请求
// response.abort();
console.log('time:', (Date.now() - start) / 1000, 's');

不论通过命令行、axios、客户端、js库等方式调用ollama的大模型服务,期间都会打印相关接口的访问日志

4.总结

本文仅仅简单介绍了ollama工具的使用,有很多复杂的配置和功能可以自行到官网探讨,官方文档都讲得很详细的。

另外,推荐结合langChain使用Ollama的大模型服务,特别好用!

参考

  • Ollama:https://ollama.com/
  • Qwen千问AI:https://www.qianwen.com/
  • unsloth:https://unsloth.ai/
相关推荐
WayneX2 小时前
Vue 3 + TypeScript + Vite 组件库搭建,自助式生成相应组件文档
前端·javascript·vue.js
贾铭2 小时前
如何实现一个网页版的剪映(四)使用插件化思维创建pixi绘制画布(转场/滤镜)
前端·javascript
Struart_R2 小时前
Spann3R、MUSt3R、CUT3R、TTT3R论文解读
人工智能·计算机视觉·3d·三维重建·前馈模型
kgduu2 小时前
js之xml处理
xml·前端·javascript
大鹏的NLP博客2 小时前
工业级时间序列利器之一:深入解析 TCN 及其注意力增强实现
人工智能·深度学习
xier_ran2 小时前
【第二周】 RAG与Agent实战16:ChatPromptTemplate的使用 —— 打造有记忆的AI
人工智能·langchain·rag
凌览2 小时前
尤雨溪新公司官宣!Vite+ 正式开源,前端圈要变天了?
前端·javascript·后端
测试_AI_一辰2 小时前
AI系统测试:LLM 在系统中负责什么,怎么测试?
人工智能·功能测试·ai·ai编程
软件资深者2 小时前
Coze自动化工作流+Agent智能体实战教程(0基础入门,附多场景实操)
运维·人工智能·ai·自动化·工作流·扣子·课程