本地部署ollama

一、docker-compose 文件

复制代码
version: "3.8"

services:
  ollama:
    image: ollama/ollama:latest
    container_name: ollama
    restart: unless-stopped
    ports:
      - "11434:11434"
    volumes:
      - ./ollama-data:/root/.ollama
        #environment:
      # 让 Ollama 主动启用 GPU
      #- OLLAMA_GPU=1
      # 可选:只给容器看到第 0 张卡
      # - CUDA_VISIBLE_DEVICES=0
      #deploy:
      #resources:
      #  reservations:
      #    devices:
      #      - driver: nvidia
      #        count: all          # 用全部 GPU;只要 1 张就写 1
      #        capabilities: [gpu]

二、常用命令

命令 功能 常用示例
ollama run <模型名> 下载并运行(或直接运行)一个模型。 ollama run llama3.2
ollama pull <模型名> 仅下载模型,不运行。 ollama pull deepseek-r1:7b
ollama list 列出本地已下载的所有模型。 ollama list
ollama ps 查看当前正在运行的模型实例。 ollama ps
ollama stop <模型名> 停止某个正在运行的模型。 ollama stop llama3
ollama rm <模型名> 从本地删除一个模型。 ollama rm mistral
ollama serve 启动API服务,以便通过代码调用。 ollama serve
ollama create <自定义名> -f ./Modelfile 使用Modelfile配置文件创建自定义模型。 ollama create mymodel -f ./Modelfile
ollama logs 查看模型运行的日志,用于调试。 ollama logs
ollama help 查看所有命令的帮助信息。 ollama help
相关推荐
chlk12311 小时前
Linux文件权限完全图解:读懂 ls -l 和 chmod 755 背后的秘密
linux·操作系统
舒一笑12 小时前
Ubuntu系统安装CodeX出现问题
linux·后端
改一下配置文件12 小时前
Ubuntu24.04安装NVIDIA驱动完整指南(含Secure Boot解决方案)
linux
是一碗螺丝粉12 小时前
LangChain 链(Chains)完全指南:从线性流程到智能路由
前端·langchain·aigc
前端付豪12 小时前
LangChain记忆:通过Memory记住上次的对话细节
人工智能·python·langchain
神秘的猪头13 小时前
🔌 给 AI 装上“三头六臂”!实战大模型接入第三方 MCP 全攻略
langchain·llm·mcp
深紫色的三北六号1 天前
Linux 服务器磁盘扩容与目录迁移:rsync + bind mount 实现服务无感迁移(无需修改配置)
linux·扩容·服务迁移
SudosuBash1 天前
[CS:APP 3e] 关于对 第 12 章 读/写者的一点思考和题解 (作业 12.19,12.20,12.21)
linux·并发·操作系统(os)
前端付豪1 天前
LangChain链 写一篇完美推文?用SequencialChain链接不同的组件
人工智能·python·langchain
神秘的猪头1 天前
🔌 把 MCP 装进大脑!手把手带你构建能“热插拔”工具的 AI Agent
langchain·llm·mcp