01. 使用ollama运行本地模型

简介

Ollama 是一个开源的大型语言模型(LLM)平台,旨在让用户能够轻松地在本地运行、管理和与大型语言模型进行交互。

部署

ollama官网

此处使用docker-compose进行部署 ollama docker仓库

shell 复制代码
docker pull ollama/ollama:0.6.4

添加 ollama.yaml 文件

yaml 复制代码
services:
  ollama:
    image: ollama/ollama:0.6.4
    container_name: ollama
    hostname: ollama
    ports:
      - '11434:11434'
    volumes:
      - './conf/ollama:/usr/local/ollama'
      - './data/ollama:/root/.ollama'
    networks:
      - study

networks:
  study:
    driver: bridge
    name: study

运行服务

shell 复制代码
docker compose -f ollama.yaml up -d

下载并运行模型

ollama在本地运行后,我们使用阿里云的千问模型进行后续的交互,如果你有其他选项也可以更选对应的模型 ollama模型列表

选择模型时,请根据电脑配置选择对应的模型大小,此处选择的是3b的大小。

shell 复制代码
$ docker exec -it ollama bash

$ ollama pull qwen2.5:3b
# 运行模型, 模型运行后会进入交互控制台, 使用 ctrl+d 或者输入 /bye 进行退出
$ ollama run qwen2.5:3b

更多cli命令查看此处 ollama cli参考

导入导出

我们在ollama.yaml文件中挂载了dataconf两个文件夹, 我们把数据模板和文件信息存储到conf中。

shell 复制代码
# 生成Modelfile文件
$ ollama show qwen2.5:3b --modelfile >> /usr/local/ollama/Modelfile

modelfile文件详解

修改modelfile文件

FROM是模型位置, 我们将这个文件复制到 conf 挂载的目录中,并修改导入位置

shell 复制代码
$ cp /root/.ollama/models/blobs/sha256-5ee4f07cdb9beadbbb293e85803c569b01bd37ed059d2715faa7bb405f31caa6 /usr/local/ollama/qwen2.53b

修改 FROM 为 FROM /usr/local/ollama/qwen2.53b

我们想要搭建自己的学习助手平台, 希望对模型提问 你是谁 时是返回学习平台的相关的问答,我们需要设置SYSTEM

导入并运行模型

shell 复制代码
$ ollama create ollama run qwen2.5:3b -f /usr/local/ollama/Modelfile

$ ollama run qwen2.5:3b
相关推荐
gustt1 小时前
构建全栈AI应用:集成Ollama开源大模型
前端·后端·ollama
哈里谢顿1 天前
Ollama 部署 Qwen 详细指南(2026 最新版)
ollama
hay_lee2 天前
Spring AI实现对话聊天-流式输出
java·人工智能·ollama·spring ai
穆友航3 天前
配置 OpenClaw 使用 Ollama 本地模型
大模型·ollama·openclaw
feasibility.5 天前
在OpenCode使用skills搭建基于LLM的dify工作流
人工智能·低代码·docker·ollama·skills·opencode·智能体/工作流
福大大架构师每日一题5 天前
ollama v0.15.2发布:新增Clawdbot集成指令,全面支持Ollama模型启动!
golang·ollama
问道飞鱼6 天前
【大模型知识】Chroma + Ollama + Llama 3.1 搭建本地知识库
llama·知识库·chroma·ollama
xiucai_cs7 天前
AI RAG 本地知识库实战
人工智能·知识库·dify·rag·ollama
玄同7657 天前
Llama.cpp 全实战指南:跨平台部署本地大模型的零门槛方案
人工智能·语言模型·自然语言处理·langchain·交互·llama·ollama
阿尔的代码屋8 天前
[大模型实战 01] 本地大模型初体验:Ollama 部署与 Python 调用指南
qwen·modelscope·大模型实战·ollama·大模型部署