ollama部署本地模型(deepseek,qwen,gemma3,...)

介绍

ollama​​ 是一个开源的本地大语言模型(LLM)运行平台,允许用户在本地计算机上轻松部署、运行和管理各种大型语言模型(deepseek,qwen,gemma3,...)。

主要特点:

  • 🚀 本地运行:模型完全在本地运行,无需联网,保护隐私
  • 📦 简单易用:一键安装,命令行操作简单
  • 🔧 多平台支持:支持 Windows、macOS、Linux

安装

windows 系统

Ubuntu/Debian 系统

  • curl -fsSL https://ollama.com/install.sh | sh

拉取模型

  • 搜索地址: ollama.com/search
  • 以下是一些常用模型,不需要显卡用cpu就可以带起来;
  • 如有好一点的显卡(如 GeForce RTX 4060),可使用 32B 的模型,效果更好。
bash 复制代码
ollama pull codellama:7b        # 代码模型
ollama pull gemma3:4b           # Google Gemma 模型
ollama pull qwen3:8b            # 通义千问模型
ollama pull qwen2.5-coder:7b    # 通义千问代码模型
ollama pull deepseek-r1:7b      # deepseek 模型
ollama pull deepseek-coder:6.7b # deepseek 代码模型
  • 查看已有模型:ollama list
bash 复制代码
ollama list
NAME                ID              SIZE      MODIFIED
deepseek-r1:7b      0a8c26691023    4.7 GB    7 months ago
deepseek-r1:1.5b    a42b25d8c10a    1.1 GB    7 months ago
  • 注意:要是无法拉取,可以挂一下代理
  • 拉取的模型文件在 C:\Users\[账户名]\.ollama 路径下(windows),如过想把模型移动到另一台内网电脑,可以打包复制该文件夹

运行模型

  • 默认 Ollama服务绑定到 127.0.0.1:11434
bash 复制代码
ollama run deepseek-r1:7b 
  • 可修改 OLLAMA_HOST 替换服务端口
bash 复制代码
# Linux/macOS
export OLLAMA_HOST=0.0.0.0:11435
ollama serve

# Windows (Command Prompt)
set OLLAMA_HOST=0.0.0.0:11435
ollama serve

# Windows (PowerShell)
$env:OLLAMA_HOST="0.0.0.0:11435"
ollama serve

使用

open-webui

bash 复制代码
pip install open-webui
open-webui serve

edge浏览器插件:Page Assist

vscode 插件 : Continue.continue

bash 复制代码
name: Local Agent
version: 1.0.0
schema: v1
models:
  - name: Llama 3.1 8B
    provider: ollama
    model: deepseek-r1:7b
    roles:
      - chat
      - edit
      - apply
  - name: Qwen2.5-Coder 1.5B
    provider: ollama
    model: qwen2.5-coder:1.5b-base
    roles:
      - autocomplete
  - name: Nomic Embed
    provider: ollama
    model: nomic-embed-text:latest
    roles:
      - embed
  - name: Autodetect
    provider: ollama
    apiBase: http://127.0.0.1:11434
    model: AUTODETECT
相关推荐
重整旗鼓~1 天前
2.LangChain4j+springboot+大模型整合
openai·springboot·ollama·langchain4j
用什么都重名2 天前
设置 Ollama 容器自动重启和模型自动加载的方法
人工智能·ollama·自加载
明知道的博客3 天前
解决WSL环境下DeepSeek-OCR运行时内存不足问题
python·ocr·deepseek·deepseek-ocr
Zyx20074 天前
前端直连大模型:用原生 JavaScript 调用 DeepSeek API
javascript·deepseek
模型启动机4 天前
DeepSeek OCR vs Qwen-3 VL vs Mistral OCR:谁更胜一筹?
人工智能·ai·大模型·ocr·deepseek
AI大模型5 天前
在本地部署DeepSeek‑R1‑0528 超大模型全流程指南!
llm·agent·deepseek
七夜zippoe6 天前
基于Qwen2.5-7B-Chat的本地化部署实战——从模型原理到企业级应用
vllm·ollama·qwen2.5·gradio web·企业级api
realhuizhu7 天前
90%的OKR都写成了KPI?其实你缺的不是表格,而是"教练"
ai工具·目标管理·okr·deepseek·团队效能
大模型真好玩7 天前
Gemini3.0深度解析,它在重新定义智能,会是前端工程师噩梦吗?
人工智能·agent·deepseek
www_stdio7 天前
与大模型共舞:从 DeepSeek 到模块化智能应用开发
deepseek