码农的召唤术:用FastAPI驯服Ollama和Deepseek-R1双头龙

背景介绍

这可真是个好日子,咱们要搞点大事情!将 Ollama 与 Deepseek-R1 集成到 Fastapi 中去构建一个智能聊天机器人。听起来有点高深?别怕,跟着这篇指南一步步来,轻松幽默地享受整个过程!

必备装备

首先,你需要准备好以下"装备":

  • 安装好 Ollama(当然啦,这是基本功!)
  • 下载 deepseek-r1 模型,并设置它在端口 11434 上运行
  • 准备好 Python 和 Fastapi 来创建 REST API
  • 记得要和 ollama-python 库好好配合哦!

快速入门

创建虚拟环境

第一步,打开你的终端,然后输入以下命令:

bash 复制代码
python3 -m venv venv  
source venv/bin/activate # On Windows use `venv\Scripts\activate`

安装依赖项

接下来,是时候安装所有依赖项了。使用 Python 和 Fastapi 来创建一个基本的 REST API。

复制代码
pip install fastapi uvicorn pydantic ollama requests

开发 API

创建 ollama_service.py

现在我们来写代码吧!在项目中创建一个名为 ollama_service.py 的文件,然后输入以下代码:

python 复制代码
# ollama_service.py
class OllamaService:
    def __init__(self, address: str, model: str):
        self._address = address
        self._model = model
        self.client = Client(host=self._address)

    async def chat(self, chat_messages: list) -> str:
        return ''.join([message['content'] for message in await self.client.chat(model=self._model, messages=chat_messages, stream=True)])
  • 代码块中的 client = Client(host=self._address) 是与 ollama 服务器交互的关键
  • client.chat(model=self._model, messages=chat_messages, stream=True) 则会将用户的问题传递给 ollama,这里 stream=True 表示它可以进行流响应。
创建 server.py

接下来,在项目中创建一个名为 server.py 的文件,并输入以下代码:

python 复制代码
from fastapi import FastAPI  
from pydantic import BaseModel  
from starlette.responses import StreamingResponse  
  
from ollama_service import OllamaService  
  
  
class ChatRequest(BaseModel):  
query: str  
  
  
version = "v1"  
app = FastAPI(version=version,  
title='REST API with Ollama and Deepseek')  
  
ai_service = OllamaService()  
  
  
@app.post("/chat/stream")  
async def chat_stream(request: ChatRequest):  
return StreamingResponse(ai_service.get_chat_stream(request.query), media_type="text/event-stream")

就这样,我们的 AI 聊天机器人基本框架就搭建好了!现在你可以开始测试它了。希望这篇指南能让你在构建过程中找到乐趣,而不是焦虑。加油哦!

PS:如果遇到任何问题或疑惑,请随时在评论区留言哦!

  • ChatRequest是个超级酷的 pydantic 模型,就像一个严格的请求守门员一样,确保一切井然有序。

  • StreamingResponse就像一位贴心的服务生,负责向你源源不断地提供美味的信息佳肴。

运行 API


现在我们要让这个 API 跑起来啦!只需要一条命令就可以搞定。是不是觉得超级简单?那就跟着小助手一起做吧!

lua 复制代码
uvicorn server:app --host 127.0.0.1 --port 8000

然后你可以通过 这个链接 访问 API 的文档页面,看看里面有什么好玩的东西等着你!(别急着跑开,还有很多精彩等着你哦)

测试 API


为了让我们的 API 更加完美,我们来写一个测试脚本,叫它 test_api.py 吧。这个小家伙的任务就是检查 API 是否能够流畅地提供信息。

ini 复制代码
import json  
import requests  
  
url = "http://localhost:8000/chat/stream"  
query = "Why is the sky blue?"  
payload = {'query': query}  
  
with requests.post(url, data=json.dumps(payload), stream=True) as req:  
for chunk in req.iter_content(256):  
print(chunk.decode('utf-8'), end='')

运行下面的命令让这个测试小家伙开始工作吧!你会发现它会像流水一样不断地给你反馈哦!

复制代码
python3 test_api.py

🎉 恭喜恭喜!你已经成功将 Python 和 FastAPI 与 Ollama 紧密结合起来,形成了一个强大的聊天机器人啦!

结论


使用 FastAPI 和 Ollama,你可以轻松地打造一个高效的 AI 聊天机器人。你可以通过添加身份验证、数据库存储或将其部署到云端来让它变得更加丰富和强大。

💡 下一步:不妨尝试不同的语言模型(LLM),或是集成一些新功能,甚至为更广泛的用户群体提供你的聊天机器人服务!

相关推荐
mortimer22 分钟前
Python 文件上传:一个简单却易犯的错误及解决方案
人工智能·python
IT_陈寒24 分钟前
Vue3性能优化实战:这5个技巧让我的应用加载速度提升了70%
前端·人工智能·后端
机器之心44 分钟前
英伟达50亿美元入股英特尔,将发布CPU+GPU合体芯片,大结局来了?
人工智能·openai
新智元1 小时前
芯片大地震,黄仁勋355亿入股!英特尔要为老黄造CPU,股价狂飙30%
人工智能·openai
阿然1651 小时前
首次尝试,95% 的代码都是垃圾:一位工程师使用 Claude Code 六周的心得
人工智能·agent·ai编程
martinzh1 小时前
RAG系统优化大揭秘:让你的AI从学渣变学霸的进化之路
人工智能
汀丶人工智能2 小时前
想成为AI绘画高手?打造独一无二的视觉IP!Seedream 4.0 使用指南详解,创意无界,效率翻倍!
人工智能
蚝油菜花2 小时前
万字深度解析Claude Code的Hook系统:让AI编程更智能、更可控|下篇—实战篇
人工智能·ai编程·claude
中杯可乐多加冰2 小时前
从创意到应用:秒哒黑客松大赛 用零代码点燃你的创新火花
人工智能
百度Geek说3 小时前
一文解码百度地图AI导航“小度想想”
人工智能