使用Ollama部署自己的本地模型

说明

服务器版本:CentOS10

Ollama版本:v0.11.6

下载模型

访问ollama官网

官网地址:Ollama Search 搜索需要的模型,这里以deepseek-r1为例

选择需要的模型版本

下载模型

这里以deepseek-r1:14b为例,下载速度取决于个人网速快慢

复制代码
ollama pull deepseek-r1:14b

启动模型

等到模型下载完成后,启动模型

复制代码
ollama run deepseek-r1:14b

模型启动之后可以直接在控制台和模型进行交互

查看运行中的模型

复制代码
ollama ps

ollama 常用命令

查看已下载的模型

复制代码
ollama list

查看运行中的模型

复制代码
ollama ps

停止运行中的模型

复制代码
ollama stop <model-name>
# 例如
ollama stop deepseek-r1:14b

删除下载的模型

复制代码
ollama rm <model-name>
# 例如
ollama rm deepseer-r1:14b

其他命令

使用ollama --help可以查看所有提供的命令,以及如何使用

复制代码
ollama --help

Ollama API

生成聊天内容

复制代码
POST /api/chat

调用示例

复制代码
curl http://localhost:11434/api/chat -d '{
  "model": "deepseek-r1:14b",
  "messages": [
    {
      "role": "user",
      "content": "你是谁?"
    }
  ]
}'

响应示例

接口是流式输出,以下仅展示一条数据的结构

复制代码
{
    "model": "deepseek-r1:7b",
    "created_at": "2025-08-23T15:04:12.341768822Z",
    "message": {
        "role": "assistant",
        "content": ""
    },
    "done": false
}

其他API

想要查看ollama提供的api,可以查看github文档,文档中有详细的说明
https://github.com/ollama/ollama/blob/main/docs/api.md

相关推荐
曲幽3 天前
FastAPI实战:打造本地文生图接口,ollama+diffusers让AI绘画更听话
python·fastapi·web·cors·diffusers·lcm·ollama·dreamshaper8·txt2img
曲幽5 天前
我用FastAPI接ollama大模型,差点被asyncio整崩溃(附对话窗口实战)
python·fastapi·web·async·httpx·asyncio·ollama
大模型真好玩6 天前
大模型训练全流程实战指南工具篇(七)——EasyDataset文档处理流程
人工智能·langchain·deepseek
Rockbean6 天前
用40行代码搭建自己的无服务器OCR
服务器·python·deepseek
曲幽6 天前
FastAPI + Ollama 实战:搭一个能查天气的AI助手
python·ai·lora·torch·fastapi·web·model·ollama·weatherapi
爱吃的小肥羊6 天前
DeepSeek V4 细节曝光:100 万上下文 + 原生多模态
人工智能·aigc·deepseek
AC赳赳老秦7 天前
云原生AI故障排查新趋势:利用DeepSeek实现高效定位部署报错与性能瓶颈
ide·人工智能·python·云原生·prometheus·ai-native·deepseek
AI大模型..7 天前
Dify 本地部署安装教程(Windows + Docker),大模型入门到精通,收藏这篇就足够了!
人工智能·程序员·开源·llm·github·deepseek·本地化部署
AC赳赳老秦8 天前
预见2026:DeepSeek与云平台联动的自动化流程——云原生AI工具演进的核心引擎
人工智能·安全·云原生·架构·自动化·prometheus·deepseek
大数据在线8 天前
万卡集群点亮中原:国家级“智算样板间”的落地与远见
人工智能·ai大模型·超算互联网·scalex·中科曙光