ollama部署本地模型(deepseek,qwen,gemma3,...)

介绍

ollama​​ 是一个开源的本地大语言模型(LLM)运行平台,允许用户在本地计算机上轻松部署、运行和管理各种大型语言模型(deepseek,qwen,gemma3,...)。

主要特点:

  • 🚀 本地运行:模型完全在本地运行,无需联网,保护隐私
  • 📦 简单易用:一键安装,命令行操作简单
  • 🔧 多平台支持:支持 Windows、macOS、Linux

安装

windows 系统

Ubuntu/Debian 系统

  • curl -fsSL https://ollama.com/install.sh | sh

拉取模型

  • 搜索地址: ollama.com/search
  • 以下是一些常用模型,不需要显卡用cpu就可以带起来;
  • 如有好一点的显卡(如 GeForce RTX 4060),可使用 32B 的模型,效果更好。
bash 复制代码
ollama pull codellama:7b        # 代码模型
ollama pull gemma3:4b           # Google Gemma 模型
ollama pull qwen3:8b            # 通义千问模型
ollama pull qwen2.5-coder:7b    # 通义千问代码模型
ollama pull deepseek-r1:7b      # deepseek 模型
ollama pull deepseek-coder:6.7b # deepseek 代码模型
  • 查看已有模型:ollama list
bash 复制代码
ollama list
NAME                ID              SIZE      MODIFIED
deepseek-r1:7b      0a8c26691023    4.7 GB    7 months ago
deepseek-r1:1.5b    a42b25d8c10a    1.1 GB    7 months ago
  • 注意:要是无法拉取,可以挂一下代理
  • 拉取的模型文件在 C:\Users\[账户名]\.ollama 路径下(windows),如过想把模型移动到另一台内网电脑,可以打包复制该文件夹

运行模型

  • 默认 Ollama服务绑定到 127.0.0.1:11434
bash 复制代码
ollama run deepseek-r1:7b 
  • 可修改 OLLAMA_HOST 替换服务端口
bash 复制代码
# Linux/macOS
export OLLAMA_HOST=0.0.0.0:11435
ollama serve

# Windows (Command Prompt)
set OLLAMA_HOST=0.0.0.0:11435
ollama serve

# Windows (PowerShell)
$env:OLLAMA_HOST="0.0.0.0:11435"
ollama serve

使用

open-webui

bash 复制代码
pip install open-webui
open-webui serve

edge浏览器插件:Page Assist

vscode 插件 : Continue.continue

bash 复制代码
name: Local Agent
version: 1.0.0
schema: v1
models:
  - name: Llama 3.1 8B
    provider: ollama
    model: deepseek-r1:7b
    roles:
      - chat
      - edit
      - apply
  - name: Qwen2.5-Coder 1.5B
    provider: ollama
    model: qwen2.5-coder:1.5b-base
    roles:
      - autocomplete
  - name: Nomic Embed
    provider: ollama
    model: nomic-embed-text:latest
    roles:
      - embed
  - name: Autodetect
    provider: ollama
    apiBase: http://127.0.0.1:11434
    model: AUTODETECT
相关推荐
AC赳赳老秦1 小时前
2026国产算力新周期:DeepSeek实战适配英伟达H200,引领大模型训练效率跃升
大数据·前端·人工智能·算法·tidb·memcache·deepseek
哈里谢顿5 小时前
Ollama 部署 Qwen 详细指南(2026 最新版)
ollama
OPEN-Source7 小时前
大模型实战:搭建一张“看得懂”的大模型应用可观测看板
人工智能·python·langchain·rag·deepseek
AC赳赳老秦1 天前
代码生成超越 GPT-4:DeepSeek-V4 编程任务实战与 2026 开发者效率提升指南
数据库·数据仓库·人工智能·科技·rabbitmq·memcache·deepseek
小白狮ww1 天前
要给 OCR 装个脑子吗?DeepSeek-OCR 2 让文档不再只是扫描
人工智能·深度学习·机器学习·ocr·cpu·gpu·deepseek
hay_lee1 天前
Spring AI实现对话聊天-流式输出
java·人工智能·ollama·spring ai
realhuizhu2 天前
为什么程序员配出的颜色像"斑斓的灰"?因为你还在靠直觉
前端开发·ai工具·ui设计·deepseek·程序员提升
逐梦苍穹2 天前
速通DeepSeek论文mHC:给大模型装上物理阀门的架构革命
人工智能·deepseek·mhc
穆友航2 天前
配置 OpenClaw 使用 Ollama 本地模型
大模型·ollama·openclaw
realhuizhu4 天前
你有多少次对着设计稿说"感觉不对,但说不上来"?
提示词工程·设计效率·deepseek·ai设计工具·品牌logo