fastapi celery flower rabbitmq redis 可运行demo

资料

1.FastAPi Celery RabbitMQ 与 Redis 的使用,并使用 Flower 监控 Celery 状态 - 星尘的博客 - 博客园

2.Celery + Flower + FastAPI + RabbitMQ ,Python实现异步消息队列和监控_fastapi rabbitmq-CSDN博客

3.FastAPI如何集成celery实现定时任务和异步任务并且使用docker-compose部署 - JentZhang - 博客园

4.window下celery正常启动后能收到任务但不执行任务的解决办法 - 乔小生1221 - 博客园

5.Celery周期任务正常启动后能收到任务,但不执行任务的解决办法_celery任务不执行-CSDN博客

6.FastAPI项目中用Celery和RabbitMQ处理耗时任务,提升服务器响应速度-原创手记-慕课网

7.开发环境下,如何通过一个命令让 fastapi 和 celery 一起工作-腾讯云开发者社区-腾讯云

8.构建高性能异步任务引擎:FastAPI + Celery + Redis_celery fastapi-CSDN博客

9.【问题记录】获取celery任务状态报错 - AttributeError: 'DisabledBackend' object has no attribute '_get_task_meta_for-CSDN博客

10.Celery产生随机队列问题_celery traceback-CSDN博客

过程

开发环境

windows, 已经安装好的 rabbitmq

目录结构

/project_root

├── /app

│ ├── init.py

│ ├── main.py

│ ├── tasks.py

│ ├── celery_config.py

│ └── worker.py

├── /logs(非必须)

├── /venv(非必须)

├── requirements.txt(非必须)

└── README.md(非必须)

依赖的三方库

amqp==5.3.1
annotated-types==0.7.0
anyio==4.8.0
billiard==4.2.1
celery==5.4.0
click==8.1.8
click-didyoumean==0.3.1
click-plugins==1.1.1
click-repl==0.3.0
colorama==0.4.6
dnspython==2.7.0
eventlet==0.39.1
fastapi==0.115.11
flower==2.0.1
greenlet==3.1.1
h11==0.14.0
humanize==4.12.1
idna==3.10
kombu==5.4.2
pip==25.0.1
prometheus_client==0.21.1
prompt_toolkit==3.0.50
pydantic==2.10.6
pydantic_core==2.27.2
python-dateutil==2.9.0.post0
pytz==2025.1
six==1.17.0
sniffio==1.3.1
starlette==0.46.1
tornado==6.4.2
typing_extensions==4.12.2
tzdata==2025.1
uvicorn==0.34.0
vine==5.1.0
wcwidth==0.2.13

文件内容

celery_config.py

python 复制代码
from celery import Celery

# 使用RabbitMQ作为消息中间件
celery_app = Celery('tasks', broker="amqp://《username》:《password》@《hostname》:《port》//")

# 配置Celery
celery_app.conf.update(
    imports=["app.tasks"],
    result_backend='rpc://',  # 使用RPC作为结果后端
    task_serializer='json',   # 任务数据使用json格式
)

main.py

python 复制代码
from fastapi import FastAPI
from .tasks import add

app = FastAPI()

@app.get("/")
def read_root():
    return {"message": "Hello World"}

@app.post("/add_task/")
def create_task(a: int, b: int):
    task = add.delay(a, b)  # 调用Celery任务
    return {"task_id": task.id}

tasks.py

python 复制代码
from celery import Celery

# 引入 Celery 配置
from .celery_config import celery_app

# 定义一个简单的任务
@celery_app.task
def add(a, b):
    return a + b

worker.py

python 复制代码
from .celery_config import celery_app

if __name__ == "__main__":
    celery_app.start()

运行

fastapi

python 复制代码
uvicorn main:app --host 0.0.0.0 --port 9000

celery

python 复制代码
celery -A app.worker worker -l info  -P solo -c 2

flower

python 复制代码
celery -A app.worker flower

测试

打开网址

点点就可以了

踩坑

无法运行 celery 命令

在写 demo 的 时候 为了便捷运行 , 笔者 将 fastapi,celery,flower 的运行 命令写在了三个 脚本文件里面 celery.cmd , runfastapi.bat , flower.cmd 运行时只有 runfastapi.bat 正确运行,其他两个脚本在控制台 无限重复运行,手动在控制台输入命令即可。【应该是与文件名有关 -_-!】

运行 celery 后电脑卡顿

与celery的命令参数有关 添加 -c 2 就好了。

无法运行 worker.py

不能直接运行 worker.py 文件,这个需要配合 celery 来运行滴

创建了许多 随机队列

查看这些随机队列,会自动删除,周期是 24h

| Features | | x-expires: | 86400000 | | auto-delete: | true | |--------------|----------| |
|----------|-------------------------------------------------------------------------------------|

相关推荐
火龙谷13 分钟前
hadoop案例实践:气象大数据离线分析
大数据·hadoop·分布式
WeiLai11121 小时前
面试基础---实时日志分析系统设计深度解析:ELK + Kafka + Flink
java·分布式·后端·elk·面试·架构·kafka
一只淡水鱼662 小时前
【RabbitMQ】rabbitmq在spring boot中的使用
spring boot·rabbitmq·java-rabbitmq
Wnq100723 小时前
DDS:保障物联网系统的稳定运行和高效协作
java·数据结构·分布式·嵌入式硬件·物联网·深度优先·信号处理
viperrrrrrrrrr78 小时前
大数据学习(63)- Zookeeper详解
分布式·学习·zookeeper
阳光明媚大男孩14 小时前
PyTorch分布式训练
人工智能·pytorch·分布式
陌年微凉&15 小时前
MySQL与Canal、RabbitMQ集成指南
数据库·mysql·缓存·rabbitmq
月上柳青17 小时前
OpenHarmony-分布式硬件关键技术
分布式
Pitayafruit17 小时前
【📕分布式锁通关指南 07】源码剖析redisson利用看门狗机制异步维持客户端锁
redis·分布式·后端