码农的召唤术:用FastAPI驯服Ollama和Deepseek-R1双头龙

背景介绍

这可真是个好日子,咱们要搞点大事情!将 Ollama 与 Deepseek-R1 集成到 Fastapi 中去构建一个智能聊天机器人。听起来有点高深?别怕,跟着这篇指南一步步来,轻松幽默地享受整个过程!

必备装备

首先,你需要准备好以下"装备":

  • 安装好 Ollama(当然啦,这是基本功!)
  • 下载 deepseek-r1 模型,并设置它在端口 11434 上运行
  • 准备好 Python 和 Fastapi 来创建 REST API
  • 记得要和 ollama-python 库好好配合哦!

快速入门

创建虚拟环境

第一步,打开你的终端,然后输入以下命令:

bash 复制代码
python3 -m venv venv  
source venv/bin/activate # On Windows use `venv\Scripts\activate`

安装依赖项

接下来,是时候安装所有依赖项了。使用 Python 和 Fastapi 来创建一个基本的 REST API。

复制代码
pip install fastapi uvicorn pydantic ollama requests

开发 API

创建 ollama_service.py

现在我们来写代码吧!在项目中创建一个名为 ollama_service.py 的文件,然后输入以下代码:

python 复制代码
# ollama_service.py
class OllamaService:
    def __init__(self, address: str, model: str):
        self._address = address
        self._model = model
        self.client = Client(host=self._address)

    async def chat(self, chat_messages: list) -> str:
        return ''.join([message['content'] for message in await self.client.chat(model=self._model, messages=chat_messages, stream=True)])
  • 代码块中的 client = Client(host=self._address) 是与 ollama 服务器交互的关键
  • client.chat(model=self._model, messages=chat_messages, stream=True) 则会将用户的问题传递给 ollama,这里 stream=True 表示它可以进行流响应。
创建 server.py

接下来,在项目中创建一个名为 server.py 的文件,并输入以下代码:

python 复制代码
from fastapi import FastAPI  
from pydantic import BaseModel  
from starlette.responses import StreamingResponse  
  
from ollama_service import OllamaService  
  
  
class ChatRequest(BaseModel):  
query: str  
  
  
version = "v1"  
app = FastAPI(version=version,  
title='REST API with Ollama and Deepseek')  
  
ai_service = OllamaService()  
  
  
@app.post("/chat/stream")  
async def chat_stream(request: ChatRequest):  
return StreamingResponse(ai_service.get_chat_stream(request.query), media_type="text/event-stream")

就这样,我们的 AI 聊天机器人基本框架就搭建好了!现在你可以开始测试它了。希望这篇指南能让你在构建过程中找到乐趣,而不是焦虑。加油哦!

PS:如果遇到任何问题或疑惑,请随时在评论区留言哦!

  • ChatRequest是个超级酷的 pydantic 模型,就像一个严格的请求守门员一样,确保一切井然有序。

  • StreamingResponse就像一位贴心的服务生,负责向你源源不断地提供美味的信息佳肴。

运行 API


现在我们要让这个 API 跑起来啦!只需要一条命令就可以搞定。是不是觉得超级简单?那就跟着小助手一起做吧!

lua 复制代码
uvicorn server:app --host 127.0.0.1 --port 8000

然后你可以通过 这个链接 访问 API 的文档页面,看看里面有什么好玩的东西等着你!(别急着跑开,还有很多精彩等着你哦)

测试 API


为了让我们的 API 更加完美,我们来写一个测试脚本,叫它 test_api.py 吧。这个小家伙的任务就是检查 API 是否能够流畅地提供信息。

ini 复制代码
import json  
import requests  
  
url = "http://localhost:8000/chat/stream"  
query = "Why is the sky blue?"  
payload = {'query': query}  
  
with requests.post(url, data=json.dumps(payload), stream=True) as req:  
for chunk in req.iter_content(256):  
print(chunk.decode('utf-8'), end='')

运行下面的命令让这个测试小家伙开始工作吧!你会发现它会像流水一样不断地给你反馈哦!

复制代码
python3 test_api.py

🎉 恭喜恭喜!你已经成功将 Python 和 FastAPI 与 Ollama 紧密结合起来,形成了一个强大的聊天机器人啦!

结论


使用 FastAPI 和 Ollama,你可以轻松地打造一个高效的 AI 聊天机器人。你可以通过添加身份验证、数据库存储或将其部署到云端来让它变得更加丰富和强大。

💡 下一步:不妨尝试不同的语言模型(LLM),或是集成一些新功能,甚至为更广泛的用户群体提供你的聊天机器人服务!

相关推荐
古月居GYH10 分钟前
3D Gaussian Splatting部分原理介绍和CUDA代码解读(一)——3D/2D协方差和高斯颜色的计算
人工智能·深度学习·3d
taoqick2 小时前
PyTorch DDP流程和SyncBN、ShuffleBN
人工智能·pytorch·python
Shockang3 小时前
机器学习的一百个概念(1)单位归一化
人工智能·机器学习
金融小师妹5 小时前
DeepSeek分析:汽车关税政策对黄金市场的影响评估
大数据·人工智能·汽车
仙尊方媛5 小时前
计算机视觉准备八股中
人工智能·深度学习·计算机视觉·视觉检测
MUTA️5 小时前
《Fusion-Mamba for Cross-modality Object Detection》论文精读笔记
人工智能·深度学习·目标检测·计算机视觉·多模态融合
qp5 小时前
18.OpenCV图像卷积及其模糊滤波应用详解
人工智能·opencv·计算机视觉
徐礼昭|商派软件市场负责人5 小时前
2025年消费观念转变与行为趋势全景洞察:”抽象、符号、游戏、共益、AI”重构新世代消费价值的新范式|徐礼昭
大数据·人工智能·游戏·重构·零售·中产阶级·消费洞察
訾博ZiBo5 小时前
AI日报 - 2025年03月31日
人工智能
milo.qu5 小时前
AI人工智能-Jupyter Notbook&Pycharm:Py开发
人工智能·python·jupyter·pycharm