本地部署ollama

一、docker-compose 文件

复制代码
version: "3.8"

services:
  ollama:
    image: ollama/ollama:latest
    container_name: ollama
    restart: unless-stopped
    ports:
      - "11434:11434"
    volumes:
      - ./ollama-data:/root/.ollama
        #environment:
      # 让 Ollama 主动启用 GPU
      #- OLLAMA_GPU=1
      # 可选:只给容器看到第 0 张卡
      # - CUDA_VISIBLE_DEVICES=0
      #deploy:
      #resources:
      #  reservations:
      #    devices:
      #      - driver: nvidia
      #        count: all          # 用全部 GPU;只要 1 张就写 1
      #        capabilities: [gpu]

二、常用命令

命令 功能 常用示例
ollama run <模型名> 下载并运行(或直接运行)一个模型。 ollama run llama3.2
ollama pull <模型名> 仅下载模型,不运行。 ollama pull deepseek-r1:7b
ollama list 列出本地已下载的所有模型。 ollama list
ollama ps 查看当前正在运行的模型实例。 ollama ps
ollama stop <模型名> 停止某个正在运行的模型。 ollama stop llama3
ollama rm <模型名> 从本地删除一个模型。 ollama rm mistral
ollama serve 启动API服务,以便通过代码调用。 ollama serve
ollama create <自定义名> -f ./Modelfile 使用Modelfile配置文件创建自定义模型。 ollama create mymodel -f ./Modelfile
ollama logs 查看模型运行的日志,用于调试。 ollama logs
ollama help 查看所有命令的帮助信息。 ollama help
相关推荐
齐齐大魔王4 小时前
linux-僵死进程处理
linux·运维·服务器
wuminyu7 小时前
专家视角看Java字节码加载与存储指令机制
java·linux·c语言·jvm·c++
.小小陈.8 小时前
Linux 线程概念与控制:从底层原理到实战应用
linux·运维·jvm
网络工程小王8 小时前
【LangChain 大模型6大调用指南】调用大模型篇
linux·运维·服务器·人工智能·学习
wangbing11258 小时前
各linux版本的包管理命令
linux·运维·服务器
Joseph Cooper8 小时前
Linux/Android 跟踪技术:ftrace、TRACE_EVENT、atrace、systrace 与 perfetto 入门
android·linux·运维
比昨天多敲两行9 小时前
Linux基础开发工具(下)
linux·运维·服务器
linux修理工10 小时前
chrome官方下载地址
运维·服务器
BU摆烂会噶11 小时前
【LangGraph】持久化实现的三大能力——时间旅行
数据库·人工智能·python·postgresql·langchain
笨笨饿11 小时前
69_如何给自己手搓一个串口
linux·c语言·网络·单片机·嵌入式硬件·算法·个人开发