本地部署ollama

一、docker-compose 文件

复制代码
version: "3.8"

services:
  ollama:
    image: ollama/ollama:latest
    container_name: ollama
    restart: unless-stopped
    ports:
      - "11434:11434"
    volumes:
      - ./ollama-data:/root/.ollama
        #environment:
      # 让 Ollama 主动启用 GPU
      #- OLLAMA_GPU=1
      # 可选:只给容器看到第 0 张卡
      # - CUDA_VISIBLE_DEVICES=0
      #deploy:
      #resources:
      #  reservations:
      #    devices:
      #      - driver: nvidia
      #        count: all          # 用全部 GPU;只要 1 张就写 1
      #        capabilities: [gpu]

二、常用命令

命令 功能 常用示例
ollama run <模型名> 下载并运行(或直接运行)一个模型。 ollama run llama3.2
ollama pull <模型名> 仅下载模型,不运行。 ollama pull deepseek-r1:7b
ollama list 列出本地已下载的所有模型。 ollama list
ollama ps 查看当前正在运行的模型实例。 ollama ps
ollama stop <模型名> 停止某个正在运行的模型。 ollama stop llama3
ollama rm <模型名> 从本地删除一个模型。 ollama rm mistral
ollama serve 启动API服务,以便通过代码调用。 ollama serve
ollama create <自定义名> -f ./Modelfile 使用Modelfile配置文件创建自定义模型。 ollama create mymodel -f ./Modelfile
ollama logs 查看模型运行的日志,用于调试。 ollama logs
ollama help 查看所有命令的帮助信息。 ollama help
相关推荐
鱼跃鹰飞35 分钟前
Leetcode:97.交错字符串
linux·服务器·leetcode
Doro再努力1 小时前
【Linux操作系统07】包管理器与Vim编辑器:从理论到实践的全面解析
linux·编辑器·vim
XRJ040618xrj1 小时前
Nginx下构建PC站点
服务器·前端·nginx
m0_737302582 小时前
云服务器深度解析:技术内核、应用场景与上云避坑指南
服务器
Coder个人博客2 小时前
Linux6.19-ARM64 mm mmap子模块深入分析
大数据·linux·安全·车载系统·系统架构·系统安全·鸿蒙系统
江畔何人初2 小时前
/etc/profile,.profile,.bashrc三者区分
linux·运维·云原生
会飞的土拨鼠呀2 小时前
Ubuntu系统缺少 iptables 工具
linux·运维·ubuntu
前端玖耀里2 小时前
详细介绍Linux命令dig和nslookup
linux·运维·服务器
呱呱巨基2 小时前
Linux 第一个系统程序 进度条
linux·c++·笔记·学习
星期五不见面2 小时前
jetson naon super使用 sudo /opt/nvidia/jetson-io/jetson-io.py 界面闪退
linux·运维·服务器