本地部署ollama

一、docker-compose 文件

复制代码
version: "3.8"

services:
  ollama:
    image: ollama/ollama:latest
    container_name: ollama
    restart: unless-stopped
    ports:
      - "11434:11434"
    volumes:
      - ./ollama-data:/root/.ollama
        #environment:
      # 让 Ollama 主动启用 GPU
      #- OLLAMA_GPU=1
      # 可选:只给容器看到第 0 张卡
      # - CUDA_VISIBLE_DEVICES=0
      #deploy:
      #resources:
      #  reservations:
      #    devices:
      #      - driver: nvidia
      #        count: all          # 用全部 GPU;只要 1 张就写 1
      #        capabilities: [gpu]

二、常用命令

命令 功能 常用示例
ollama run <模型名> 下载并运行(或直接运行)一个模型。 ollama run llama3.2
ollama pull <模型名> 仅下载模型,不运行。 ollama pull deepseek-r1:7b
ollama list 列出本地已下载的所有模型。 ollama list
ollama ps 查看当前正在运行的模型实例。 ollama ps
ollama stop <模型名> 停止某个正在运行的模型。 ollama stop llama3
ollama rm <模型名> 从本地删除一个模型。 ollama rm mistral
ollama serve 启动API服务,以便通过代码调用。 ollama serve
ollama create <自定义名> -f ./Modelfile 使用Modelfile配置文件创建自定义模型。 ollama create mymodel -f ./Modelfile
ollama logs 查看模型运行的日志,用于调试。 ollama logs
ollama help 查看所有命令的帮助信息。 ollama help
相关推荐
小Tomkk4 小时前
数据库 变更和版本控制管理工具 --Bytebase 安装部署(linux 安装篇)
linux·运维·数据库·ci/cd·bytebase
赌博羊4 小时前
ImportError: /lib/x86_64-linux-gnu/libc.so.6: version `GLIBC_2.32‘ not found
linux·运维·gnu
木卫二号Coding4 小时前
第七十九篇-E5-2680V4+V100-32G+llama-cpp编译运行+Qwen3-Next-80B
linux·llama
getapi4 小时前
Ubuntu 22.04 服务器的系统架构是否为 amd64 x86_64
linux·服务器·ubuntu
消失的旧时光-19434 小时前
Linux 入门核心命令清单(工程版)
linux·运维·服务器
艾莉丝努力练剑4 小时前
【Linux:文件】Ext系列文件系统(初阶)
大数据·linux·运维·服务器·c++·人工智能·算法
Trouvaille ~5 小时前
【Linux】TCP Socket编程实战(一):API详解与单连接Echo Server
linux·运维·服务器·网络·c++·tcp/ip·socket
旖旎夜光5 小时前
Linux(13)(中)
linux·网络
威迪斯特6 小时前
CentOS图形化操作界面:理论解析与实践指南
linux·运维·centos·组件·图形化·桌面·xserver
香芋Yu6 小时前
【LangChain1.0】第九篇 Agent 架构设计
langchain·agent·架构设计