ollama部署本地模型(deepseek,qwen,gemma3,...)

介绍

ollama​​ 是一个开源的本地大语言模型(LLM)运行平台,允许用户在本地计算机上轻松部署、运行和管理各种大型语言模型(deepseek,qwen,gemma3,...)。

主要特点:

  • 🚀 本地运行:模型完全在本地运行,无需联网,保护隐私
  • 📦 简单易用:一键安装,命令行操作简单
  • 🔧 多平台支持:支持 Windows、macOS、Linux

安装

windows 系统

Ubuntu/Debian 系统

  • curl -fsSL https://ollama.com/install.sh | sh

拉取模型

  • 搜索地址: ollama.com/search
  • 以下是一些常用模型,不需要显卡用cpu就可以带起来;
  • 如有好一点的显卡(如 GeForce RTX 4060),可使用 32B 的模型,效果更好。
bash 复制代码
ollama pull codellama:7b        # 代码模型
ollama pull gemma3:4b           # Google Gemma 模型
ollama pull qwen3:8b            # 通义千问模型
ollama pull qwen2.5-coder:7b    # 通义千问代码模型
ollama pull deepseek-r1:7b      # deepseek 模型
ollama pull deepseek-coder:6.7b # deepseek 代码模型
  • 查看已有模型:ollama list
bash 复制代码
ollama list
NAME                ID              SIZE      MODIFIED
deepseek-r1:7b      0a8c26691023    4.7 GB    7 months ago
deepseek-r1:1.5b    a42b25d8c10a    1.1 GB    7 months ago
  • 注意:要是无法拉取,可以挂一下代理
  • 拉取的模型文件在 C:\Users\[账户名]\.ollama 路径下(windows),如过想把模型移动到另一台内网电脑,可以打包复制该文件夹

运行模型

  • 默认 Ollama服务绑定到 127.0.0.1:11434
bash 复制代码
ollama run deepseek-r1:7b 
  • 可修改 OLLAMA_HOST 替换服务端口
bash 复制代码
# Linux/macOS
export OLLAMA_HOST=0.0.0.0:11435
ollama serve

# Windows (Command Prompt)
set OLLAMA_HOST=0.0.0.0:11435
ollama serve

# Windows (PowerShell)
$env:OLLAMA_HOST="0.0.0.0:11435"
ollama serve

使用

open-webui

bash 复制代码
pip install open-webui
open-webui serve

edge浏览器插件:Page Assist

vscode 插件 : Continue.continue

bash 复制代码
name: Local Agent
version: 1.0.0
schema: v1
models:
  - name: Llama 3.1 8B
    provider: ollama
    model: deepseek-r1:7b
    roles:
      - chat
      - edit
      - apply
  - name: Qwen2.5-Coder 1.5B
    provider: ollama
    model: qwen2.5-coder:1.5b-base
    roles:
      - autocomplete
  - name: Nomic Embed
    provider: ollama
    model: nomic-embed-text:latest
    roles:
      - embed
  - name: Autodetect
    provider: ollama
    apiBase: http://127.0.0.1:11434
    model: AUTODETECT
相关推荐
大数据0010 小时前
基于Ollama大模型学习
python·flask·大模型·alibaba·ollama·springai·deepseek
眠りたいです11 小时前
使用LangChain进行AI应用构建-快速上手,定义模型和调用工具部分
人工智能·langchain·llm·ollama·python3.13
秋氘渔1 天前
使用Ollama部署DeepSeek-OCR模型:从零开始的完整指南
ocr·ollama·deepseek-ocr
weixin_462446231 天前
Python 使用 Chainlit + Ollama 快速搭建本地 AI 聊天应用
人工智能·python·ollama·chainlit
亿丢丢2 天前
DeepSeek本地部署:Ollama+Open WebUI
人工智能·windows·deepseek
l1t3 天前
利用豆包辅助编写数独隐式唯一数填充c程序
c语言·开发语言·人工智能·算法·豆包·deepseek
avi91114 天前
[Unity] 仙剑源码-仙剑奇侠传移动版分析 - 开篇;[Lua] [A1相关],DeepSeek学习脚手架源码
chatgpt·aigc·lua·deepseek·仙剑移动版·仙剑
AC赳赳老秦4 天前
华为昇腾适配DeepSeek实战:FP8转BF16权重与FlashMLA加速配置详解
大数据·人工智能·机器学习·数据分析·kafka·etl工程师·deepseek
刘金宝_Arvin4 天前
【Data Agent】数据分析智能体 初体验,可用的Chat BI -- 本地部署使用全流程
qwen·ollama·data agent
M宝可梦4 天前
Engram: DeepSeek最新工作解读
transformer·memory·hash·moe·记忆·deepseek·engram