使用Ollama部署自己的本地模型

说明

服务器版本:CentOS10

Ollama版本:v0.11.6

下载模型

访问ollama官网

官网地址:Ollama Search 搜索需要的模型,这里以deepseek-r1为例

选择需要的模型版本

下载模型

这里以deepseek-r1:14b为例,下载速度取决于个人网速快慢

复制代码
ollama pull deepseek-r1:14b

启动模型

等到模型下载完成后,启动模型

复制代码
ollama run deepseek-r1:14b

模型启动之后可以直接在控制台和模型进行交互

查看运行中的模型

复制代码
ollama ps

ollama 常用命令

查看已下载的模型

复制代码
ollama list

查看运行中的模型

复制代码
ollama ps

停止运行中的模型

复制代码
ollama stop <model-name>
# 例如
ollama stop deepseek-r1:14b

删除下载的模型

复制代码
ollama rm <model-name>
# 例如
ollama rm deepseer-r1:14b

其他命令

使用ollama --help可以查看所有提供的命令,以及如何使用

复制代码
ollama --help

Ollama API

生成聊天内容

复制代码
POST /api/chat

调用示例

复制代码
curl http://localhost:11434/api/chat -d '{
  "model": "deepseek-r1:14b",
  "messages": [
    {
      "role": "user",
      "content": "你是谁?"
    }
  ]
}'

响应示例

接口是流式输出,以下仅展示一条数据的结构

复制代码
{
    "model": "deepseek-r1:7b",
    "created_at": "2025-08-23T15:04:12.341768822Z",
    "message": {
        "role": "assistant",
        "content": ""
    },
    "done": false
}

其他API

想要查看ollama提供的api,可以查看github文档,文档中有详细的说明
https://github.com/ollama/ollama/blob/main/docs/api.md

相关推荐
用什么都重名1 天前
设置 Ollama 容器自动重启和模型自动加载的方法
人工智能·ollama·自加载
明知道的博客2 天前
解决WSL环境下DeepSeek-OCR运行时内存不足问题
python·ocr·deepseek·deepseek-ocr
only-code3 天前
Fast-DetectGPT:用“条件概率曲率”拆穿 AI 伪装的文本
人工智能·深度学习·机器学习·ai大模型·论文解读·ai检测·文本检测
Zyx20073 天前
前端直连大模型:用原生 JavaScript 调用 DeepSeek API
javascript·deepseek
模型启动机3 天前
DeepSeek OCR vs Qwen-3 VL vs Mistral OCR:谁更胜一筹?
人工智能·ai·大模型·ocr·deepseek
AI大模型4 天前
在本地部署DeepSeek‑R1‑0528 超大模型全流程指南!
llm·agent·deepseek
请叫我啊腻5 天前
全网都在找的Nano Banana Pro API 来了!便宜稳定0.15/张
google·ai大模型·nanobanana·aiapi·nanobananapro·gemini3.
七夜zippoe5 天前
基于Qwen2.5-7B-Chat的本地化部署实战——从模型原理到企业级应用
vllm·ollama·qwen2.5·gradio web·企业级api
realhuizhu6 天前
90%的OKR都写成了KPI?其实你缺的不是表格,而是"教练"
ai工具·目标管理·okr·deepseek·团队效能
大模型真好玩6 天前
Gemini3.0深度解析,它在重新定义智能,会是前端工程师噩梦吗?
人工智能·agent·deepseek