python中使用高并发分布式队列库celery的那些坑

python中使用高并发分布式队列库celery的那些坑

      • [🌟 简单理解](#🌟 简单理解)
      • [🛠️ 核心功能](#🛠️ 核心功能)
      • [🚀 工作机制](#🚀 工作机制)
      • [📦 示例代码(使用 Redis 作为 broker)](#📦 示例代码(使用 Redis 作为 broker))
      • [🔗 常见搭配](#🔗 常见搭配)
      • [📦 我的环境](#📦 我的环境)
      • 📦第一个问题
      • 📦第二个问题

Celery 是一个用于 分布式任务队列 的 Python 库,常用于处理异步任务(即任务不需要立即执行,后台慢慢做),尤其适合执行定时任务或耗时操作。


🌟 简单理解

Celery 就是让你把"任务"扔到后台执行,而不是阻塞当前程序。


🛠️ 核心功能

功能 说明
异步任务执行 比如发邮件、处理图片、生成报告等不需要立即完成的操作。
分布式任务调度 可以运行在多台服务器上,实现任务负载均衡。
定时任务(周期任务) 类似 crontab,可设置任务定时执行(如每天 8 点发日报)。
任务重试机制 失败任务可以自动重试,适用于网络波动等场景。
与Django/Flask集成 非常适合与这些 Web 框架配合使用,将长耗时任务下放到 Celery。

🚀 工作机制

Celery 一般由以下几部分组成:

  1. Producer(生产者):你写的代码,会将任务"发"出去。
  2. Broker(中间人):任务先存放在消息队列(如 Redis、RabbitMQ)中。
  3. Worker(工人):后台运行的进程,专门"接收"和"执行"这些任务。
  4. Result Backend(结果后端):可选,记录任务结果,如执行成功或失败。

📦 示例代码(使用 Redis 作为 broker)

python 复制代码
# tasks.py
from celery import Celery

app = Celery('mytasks', broker='redis://localhost:6379/0')

@app.task
def add(x, y):
    return x + y

运行方式:

bash 复制代码
celery -A tasks worker --loglevel=info

调用方式(异步执行):

python 复制代码
add.delay(3, 5)  # 返回一个异步结果对象

🔗 常见搭配

  • 消息中间件:Redis、RabbitMQ(推荐 Redis 简单易用)
  • Web框架集成:Django、Flask
  • 配合 Flower、Prometheus、Grafana 等工具可实现任务监控

如果你正在开发一个 需要做"异步处理"或"后台任务"的系统,Celery 是 Python 中的主流选择之一。但是该库看似简单,却隐藏着无数坑,本文就带大家了解一下我在使用过程中遇到的那些坑。

📦 我的环境

  • windows 10
  • python 3.12
  • celery 5.5.2

📦第一个问题

执行命令:

bash 复制代码
celery -A main_async:celery_app worker --loglevel=info

报错:

bash 复制代码
[2025-05-29 19:40:22,107: INFO/MainProcess] Task main_async.background_content_similarity[4c84e1c8-6a13-4241-8e62-04e17b3884cb] received
[2025-05-29 19:40:22,142: ERROR/MainProcess] Task handler raised error: ValueError('not enough values to unpack (expected 3, got 0)')
billiard.einfo.RemoteTraceback:
"""
Traceback (most recent call last):
  File "D:\ProgramData\Anaconda3\envs\gj_ai_new\Lib\site-packages\billiard\pool.py", line 362, in workloop
    result = (True, prepare_result(fun(*args, **kwargs)))
                                   ^^^^^^^^^^^^^^^^^^^^
  File "D:\ProgramData\Anaconda3\envs\gj_ai_new\Lib\site-packages\celery\app\trace.py", line 640, in fast_trace_task
    tasks, accept, hostname = _loc
    ^^^^^^^^^^^^^^^^^^^^^^^
ValueError: not enough values to unpack (expected 3, got 0)
"""

The above exception was the direct cause of the following exception:

Traceback (most recent call last):
  File "D:\ProgramData\Anaconda3\envs\gj_ai_new\Lib\site-packages\billiard\pool.py", line 362, in workloop
    result = (True, prepare_result(fun(*args, **kwargs)))
                                   ^^^^^^^^^^^^^^^^^^^^
  File "D:\ProgramData\Anaconda3\envs\gj_ai_new\Lib\site-packages\celery\app\trace.py", line 640, in fast_trace_task
    tasks, accept, hostname = _loc
    ^^^^^^^^^^^^^^^^^^^^^^^
ValueError: not enough values to unpack (expected 3, got 0)

该问题是由于celery的默认并发网络编程线程库引起的,换成eventlet可以解决问题,只需修改启动命令即可,如下:

bash 复制代码
celery -A main_async:celery_app worker --loglevel=info -P eventlet

📦第二个问题

第二个问题是日志问题,报错类似如下所示:

bash 复制代码
'LoggingProxy' object has no attribute 'encoding'"
原因分析

Celery 在启动 worker 时,默认会将标准输出和标准错误重定向到其日志系统中。这意味着 sys.stdout 和 sys.stderr 被替换为 LoggingProxy 对象。然而,某些库或代码可能期望这些对象具有标准文件对象的属性,如 encoding 或 fileno,从而导致 AttributeError。

此时只需要将worker_redirect_stdouts参数设置为False即可解决问题,代码如下:

python 复制代码
# Celery 配置
celery_app.conf.update(
    task_serializer="json",
    accept_content=["json"],
    result_serializer="json",
    timezone="Asia/Shanghai",
    enable_utc=True,
    include=["main_async"],  # 显式指定任务模块
    task_track_started=True,  # 跟踪任务开始状态
    task_ignore_result=False,  # 保存任务结果
    task_store_errors_even_if_ignored=True,  # 存储错误
    worker_redirect_stdouts = False	# 禁止将stdout和stderr重定向到当前记录器。
)
相关推荐
蓝婷儿17 分钟前
6个月Python学习计划 Day 8 - Python 函数基础
开发语言·python·学习
l木本I32 分钟前
GraphRAG: 解锁大模型对叙述性私有数据的检索能力
人工智能·python·机器学习·知识图谱
敲键盘的小夜猫2 小时前
LangChain整合Milvus向量数据库实战:数据新增与删除操作
人工智能·python·milvus
无闻墨客2 小时前
数据可视化--使用matplotlib绘制高级图表
python·机器学习·信息可视化·matplotlib·可视化·数据可视化
我想睡觉2612 小时前
Python打卡训练营Day40
开发语言·人工智能·python·深度学习·机器学习
橙色小博3 小时前
Python中openpyxl库的基础解析与代码实例
前端·python·excel·openpyxl
小叶爱吃鱼3 小时前
web自动化-Selenium、Playwright、Robot Framework等自动化框架使用场景优劣对比
python·selenium·自动化
元直数字电路验证4 小时前
[DS]使用 Python 库中自带的数据集来实现上述 50 个数据分析和数据可视化程序的示例代码
python·信息可视化·数据分析
青钰未央9 小时前
19、Python字符串高阶实战:转义字符深度解析、高效拼接与输入处理技巧
python·改行学it
Blue桃之夭夭11 小时前
Python进阶【四】:XML和JSON文件处理
xml·python·json