ollama部署本地模型(deepseek,qwen,gemma3,...)

介绍

ollama​​ 是一个开源的本地大语言模型(LLM)运行平台,允许用户在本地计算机上轻松部署、运行和管理各种大型语言模型(deepseek,qwen,gemma3,...)。

主要特点:

  • 🚀 本地运行:模型完全在本地运行,无需联网,保护隐私
  • 📦 简单易用:一键安装,命令行操作简单
  • 🔧 多平台支持:支持 Windows、macOS、Linux

安装

windows 系统

Ubuntu/Debian 系统

  • curl -fsSL https://ollama.com/install.sh | sh

拉取模型

  • 搜索地址: ollama.com/search
  • 以下是一些常用模型,不需要显卡用cpu就可以带起来;
  • 如有好一点的显卡(如 GeForce RTX 4060),可使用 32B 的模型,效果更好。
bash 复制代码
ollama pull codellama:7b        # 代码模型
ollama pull gemma3:4b           # Google Gemma 模型
ollama pull qwen3:8b            # 通义千问模型
ollama pull qwen2.5-coder:7b    # 通义千问代码模型
ollama pull deepseek-r1:7b      # deepseek 模型
ollama pull deepseek-coder:6.7b # deepseek 代码模型
  • 查看已有模型:ollama list
bash 复制代码
ollama list
NAME                ID              SIZE      MODIFIED
deepseek-r1:7b      0a8c26691023    4.7 GB    7 months ago
deepseek-r1:1.5b    a42b25d8c10a    1.1 GB    7 months ago
  • 注意:要是无法拉取,可以挂一下代理
  • 拉取的模型文件在 C:\Users\[账户名]\.ollama 路径下(windows),如过想把模型移动到另一台内网电脑,可以打包复制该文件夹

运行模型

  • 默认 Ollama服务绑定到 127.0.0.1:11434
bash 复制代码
ollama run deepseek-r1:7b 
  • 可修改 OLLAMA_HOST 替换服务端口
bash 复制代码
# Linux/macOS
export OLLAMA_HOST=0.0.0.0:11435
ollama serve

# Windows (Command Prompt)
set OLLAMA_HOST=0.0.0.0:11435
ollama serve

# Windows (PowerShell)
$env:OLLAMA_HOST="0.0.0.0:11435"
ollama serve

使用

open-webui

bash 复制代码
pip install open-webui
open-webui serve

edge浏览器插件:Page Assist

vscode 插件 : Continue.continue

bash 复制代码
name: Local Agent
version: 1.0.0
schema: v1
models:
  - name: Llama 3.1 8B
    provider: ollama
    model: deepseek-r1:7b
    roles:
      - chat
      - edit
      - apply
  - name: Qwen2.5-Coder 1.5B
    provider: ollama
    model: qwen2.5-coder:1.5b-base
    roles:
      - autocomplete
  - name: Nomic Embed
    provider: ollama
    model: nomic-embed-text:latest
    roles:
      - embed
  - name: Autodetect
    provider: ollama
    apiBase: http://127.0.0.1:11434
    model: AUTODETECT
相关推荐
大模型真好玩15 小时前
大模型训练全流程实战指南工具篇(九)——LLamaFactory大模型训练工具使用指南
人工智能·agent·deepseek
小田学Python1 天前
简明教程:实现OpenCLaw轻量级应用服务器部署及Ollama大模型本地化
ai·大模型·ollama·openclaw
封奚泽优2 天前
Zotero(Awesome GPT)+Ollama
gpt·zotero·ollama
小田学Python2 天前
Dify+Ollama模型搭建攻略:本地环境实战指南
大模型·qwen·dify·ollama
lcx_defender2 天前
【Ollama】Windows系统使用Ollama部署本地大模型
ollama
Lab_AI2 天前
创腾科技推出DeepSeek智能一体机:AI4S驱动研发效率提升300%,打造科学家“第二大脑”
人工智能·ai4s·deepseek·科学智能
AC赳赳老秦2 天前
OpenClaw核心命令详解(常用指令+实战示例,高效开启自动化工作)
大数据·运维·人工智能·自动化·ai-native·deepseek·openclaw
蜡台2 天前
整合一些 免费甚至无限量token平台,方便OpenClaw 使用,及一些相关使用配置代码
nvidia·token·ollama·openrouter·openclaw·龙虾
zhqh1003 天前
Ubuntu24.04安装ollama,基于GPU,对接openclaw
人工智能·ubuntu·ollama·openclaw
KIO no way3 天前
自定义Node.js安装路径及环境变量配置
node.js·deepseek