django-q轻量级定时任务制定

django-q ,celery,apschedule都可以作为python的选型,但是django-q更轻量级,可以定制想要的任务,通过消息中间件,来实现不太高并发的实现

官网介绍地址
django-q官网地址

本次测试的是python3.12版本

首先需要安装django-q,具体安装方式pip install django-q

国内的话可以选择清华或者豆瓣源进行安装

最后在settings.py文件中INSTALLED_APPS添加

python 复制代码
INSTALLED_APPS = [
	#放在最后面添加即可
    'django_q',

]

然后配置队列消息中间件

相关消息中间件配置可以参照官网
中间件选型

为了测试方便选择了orm配置

settings.py添加如下内容

python 复制代码
Q_CLUSTER = {
    'name': 'DjangORM',
    'workers': 1,
    'timeout': 90,
    'retry': 120,
    'queue_limit': 50,
    'bulk': 10,
    'orm': 'default'
}

为了方便views.py视图,自己创建了一个app01项目

核心代码如下

python 复制代码
from django.shortcuts import render,HttpResponse
from django.http import JsonResponse,request

# Create your views here.

import math


def demo_task(number):
    print(number,type(number))
    return math.sqrt(number)


from django_q.tasks import async_task, Task


def task_finish(task: Task):
    print(f'任务 {task.name}(ID:{task.id})完成!')
# hook参数是执行完成回调函数,可以通过admin后台查看结果
def create_task(request):
    task_id=async_task(
        demo_task, 10,
        task_name='测试任务1',
        hook=task_finish,
    )
    return JsonResponse({'task_id':task_id,'result':'成功'})


from django_q.tasks import schedule,Schedule

def create_cron1(request):
    schedule(
        'app01.views.demo_task',1000,
        schedule_type=Schedule.MINUTES,
        minutes=1,
        task_name='定时任务1',
    )
    return JsonResponse({'result':'定时任务1创建'})

配置相关的urls.py路由前端能识别到

执行每个命令分别新开一个窗口执行,前三步必须顺序执行,后两步骤可部分先后顺序执行

python 复制代码
python manage.py makemigrations
python manage.py migrate
python manage.py runserver
python manage.py createsuperuser
python manang.py qcluster

打开浏览器执行

可以看到定时任务已经创建

为什么是两个定时任务因为有一个是我之前创建

可以看到里面的参数,我们可以定制修改

定时任务执行结果

Django-Q的定时任务类型:

一次性

按x分钟执行一次

每小时一次

每天

每周

每月

每季度

每年

Cron表达式

注意,即使是Cron表达式,定时任务执行的最短间隔也是1分钟缘由

html 复制代码
The current design has a heartbeat of 30 seconds, which means the schedule table can't have schedules below that. Most of this is explained in the architecture docs. Because of the way the internal loop is set up, a resolution under a dozen seconds or so, quickly becomes unreliable.

I always imagined tasks that need accuracy measured in seconds, would use a delayed tasks strategy where a few seconds delay is either added through the broker or inside the task itself.

The problem with all this, is that a task is currently always added to the back of the queue. So even with a 1 second resolution on the schedule, the task still has to wait it's execution time. Which can of course vary wildly depending on the broker type, worker capacity and current workload.

当然如果触发了定时任务也可以触发信号
signal官网文档

具体完整版本可以参考附件下载

相关推荐
q***333716 分钟前
Spring boot启动原理及相关组件
数据库·spring boot·后端
自学互联网17 分钟前
使用Python构建钢铁行业生产监控系统:从理论到实践
开发语言·python
无心水22 分钟前
【Python实战进阶】7、Python条件与循环实战详解:从基础语法到高级技巧
android·java·python·python列表推导式·python条件语句·python循环语句·python实战案例
xwill*38 分钟前
RDT-1B: A DIFFUSION FOUNDATION MODEL FOR BIMANUAL MANIPULATION
人工智能·pytorch·python·深度学习
陈奕昆1 小时前
n8n实战营Day2课时2:Loop+Merge节点进阶·Excel批量校验实操
人工智能·python·excel·n8n
程序猿追1 小时前
PyTorch算子模板库技术解读:无缝衔接PyTorch模型与Ascend硬件的桥梁
人工智能·pytorch·python·深度学习·机器学习
Victor3561 小时前
Redis(154)Redis的数据一致性如何保证?
后端
秋邱1 小时前
高等教育 AI 智能体的 “导学诊践” 闭环
开发语言·网络·数据库·人工智能·python·docker
r***86981 小时前
springboot三层架构详细讲解
spring boot·后端·架构
Victor3561 小时前
Redis(155)Redis的数据持久化如何优化?
后端