本地部署ollama

一、docker-compose 文件

复制代码
version: "3.8"

services:
  ollama:
    image: ollama/ollama:latest
    container_name: ollama
    restart: unless-stopped
    ports:
      - "11434:11434"
    volumes:
      - ./ollama-data:/root/.ollama
        #environment:
      # 让 Ollama 主动启用 GPU
      #- OLLAMA_GPU=1
      # 可选:只给容器看到第 0 张卡
      # - CUDA_VISIBLE_DEVICES=0
      #deploy:
      #resources:
      #  reservations:
      #    devices:
      #      - driver: nvidia
      #        count: all          # 用全部 GPU;只要 1 张就写 1
      #        capabilities: [gpu]

二、常用命令

命令 功能 常用示例
ollama run <模型名> 下载并运行(或直接运行)一个模型。 ollama run llama3.2
ollama pull <模型名> 仅下载模型,不运行。 ollama pull deepseek-r1:7b
ollama list 列出本地已下载的所有模型。 ollama list
ollama ps 查看当前正在运行的模型实例。 ollama ps
ollama stop <模型名> 停止某个正在运行的模型。 ollama stop llama3
ollama rm <模型名> 从本地删除一个模型。 ollama rm mistral
ollama serve 启动API服务,以便通过代码调用。 ollama serve
ollama create <自定义名> -f ./Modelfile 使用Modelfile配置文件创建自定义模型。 ollama create mymodel -f ./Modelfile
ollama logs 查看模型运行的日志,用于调试。 ollama logs
ollama help 查看所有命令的帮助信息。 ollama help
相关推荐
疯狂吧小飞牛5 小时前
GPG基础指令
linux·服务器·网络
C++ 老炮儿的技术栈5 小时前
volatile使用场景
linux·服务器·c语言·开发语言·c++
Familyism5 小时前
langchain应用
langchain
hjxu20166 小时前
【OpenClaw 龙虾养成笔记一】在远程服务器,使用Docker安装OpenClaw
服务器·笔记·docker
todoitbo7 小时前
用虚拟局域网打通 Win/Mac/Linux 三端:跨设备协作的实用方案
linux·运维·macos
源远流长jerry7 小时前
RDMA 基本操作类型详解:从双端通信到单端直访
linux·网络·tcp/ip·ip
Sylvia-girl8 小时前
Linux下的基本指令1
linux·运维·服务器
wyt5314298 小时前
Redis的安装教程(Windows+Linux)【超详细】
linux·数据库·redis
17(无规则自律)8 小时前
【Linux驱动实战】:字符设备之ioctl与mutex全解析
linux·c语言·驱动开发·嵌入式硬件
斯班奇的好朋友阿法法9 小时前
在企业的离线内网环境的服务器部署openclaw和大模型
服务器·语言模型