Celery与Django:打造高效DevOps的定时任务与异步处理神器
ccwgpt 2025-05-11 14:35 7 浏览 0 评论
本文详细介绍了 Celery 这一强大的异步任务队列系统,以及如何在 Django 框架中应用它来实现定时任务和异步处理,从而提高运维开发(DevOps)的效率和应用性能。
下面我们先认识一下 Celery 吧!
c5b25c70dce2d63ad0a9cdc5365ad0a0
Celery - 分布式任务队列
Celery 是一个简单、灵活、可靠的分布式系统,用于处理大量消息,同时为操作提供维护该系统所需的工具。 它是一个专注于实时处理的任务队列,同时也支持任务调度。
image
Celery 通过消息进行通信,通常使用经纪人 Borker 和 workers 之间进行调解。要启动一个任务,客户端会在队列中放入一条消息,然后经纪人将消息传递给工人。
一个 Celery 系统可以由多个 worker 和 broker 组成,从而实现高可用性和横向扩展。
Celery 是用 Python 编写的,但协议可以用任何语言实现。除了 Python 之外,还有 Node.js 的 Node-celery,PHP 客户端,golang 的 gocelery 和 Rust 的 rusty-celery。
10a75d0cfae886067dff7e2d7678b9d2
Celery 简介
- Part1: 什么是消息队列 任务队列是用来作为跨线程或机器分配工作的机制。
任务队列的输入是称为任务的工作单元。
专用工作进程不断监视任务队列以执行新工作。
Celery 通过消息进行通信,通常使用代理来协调客户端和工作器。要启动任务,客户端会将消息添加到队列,然后代理会将该消息传递给工作器。Celery 系统可以由多个工作者和代理组成,从而实现高可用性和水平扩展。
Celery 是用 Python 编写的,但该协议可以用任何语言实现。除了 Python,还有适用于 Node.js 的node-celery和node-celery-ts,以及PHP 客户端。语言互操作性也可以通过公开 HTTP 端点并拥有请求它的任务(webhook)来实现。 - Part2: 我需要准备什么 Celery需要消息传输来发送和接收消息。
RabbitMQ 和 Redis 代理传输功能齐全,但也支持大量其他实验性解决方案,包括使用 SQLite 进行本地开发。
Celery可以在单台机器上运行,也可以在多台机器上运行,甚至跨数据中心运行。 - Part3: Celery 初体验
- 选择 Broker (MQ/Redis/其他 Broker)
- 安装 Celery(pip install celery)
- 应用:(创建 Celery 实例或者简称 app,它是 Celery 中执行所有操作的入口点,例如创建任务和管理 Worker)
- from celery import Celery
app = Celery('tasks', broker='pyamqp://guest@localhost//') @app.task
def add(x, y):
return x + y - 运行 Celery 的 Worker: (celery -A django_template_v1 worker -Q default -c 20 -l info -n default,生产环境中可以将 Worker 最为守护进程在后台运行,可以参考使用Supervisord)
- 调用任务:(要调用我们的任务,您可以使用该 delay()方法,这是方法的一个便捷的快捷方式apply_async() ,可以更好地控制任务的执行),该任务会交给 Worker 处理,可以在控制台输出验证,任务调用会返回一个AsyncResult 实例。这可用于检查任务的状态、等待任务完成或获取其返回值(或者如果任务失败,则获取异常和回溯)
- 保存任务结果:如果您想要跟踪任务的状态,Celery 需要将状态存储或发送到某个地方。有几种内置结果后端可供选择:SQLAlchemy / Django ORM、 MongoDB、Memcached、Redis、RPC(RabbitMQ /AMQP)以及 – 或者您可以定义自己的后端 (CELERY_RESULT_BACKEND = "django-db" )
- 监控任务执行: Flower 是一款用于监控和管理 Celery 集群的开源 Web 应用程序。它提供有关 Celery 工作器和任务状态的实时信息。
- 配置项:
- CELERY_ONCE_URL = "{}1".format(REDIS_URL)
CELERY_RESULT_BACKEND = "django-db" # 使用django数据库
CELERY_BROKER_URL = "{}8".format(REDIS_URL)
CELERY_BEAT_SCHEDULER = "django_celery_beat.schedulers:DatabaseScheduler"
# CELERY_ACCEPT_CONTENT = ["application/json"]
CELERY_ACCEPT_CONTENT = ["json", "application/text"]
CELERY_TASK_SERIALIZER = "json"
CELERY_RESULT_SERIALIZER = "json"
CELERYD_CONCURRENCY = 40 # celery worker的并发数
CELERY_MAX_TASKS_PER_CHILD = 20
CELERYD_MAX_TASKS_PER_CHILD = 20
# 这个表示每个工作的进程/线程/绿程 在执行 n 次任务后,主动销毁,之后会起一个新的。主要解决一些资源释放的问题。
CELERY_RESULT_EXPIRES = 7200 # celery任务执行结果的超时时间,
CELERY_TASK_RESULT_EXPIRES = 7200 # 这个表示保存任务结果的时长,这个时间会被设置到 redis 里面(假设 backend 是 redis ),如果抓取数据量大的话,是可以缩短保存的时间,# 节省 backend 的资源( redis 主要是内存)消耗,默认是 24 小时( 86400 ),单位是秒。
CELERY_TASK_TIME_LIMIT = 7200 # 单个任务的运行时间不超过此值,否则会被SIGKILL 信号杀死
CELERY_ENABLE_UTC = False
CELERY_WORKER_CONCURRENCY = 40 # celery worker的并发数
DJANGO_CELERY_BEAT_TZ_AWARE = True
CELERY_TIMEZONE = "Asia/Shanghai" # celery 时区问题
CELERY_TASK_TRACK_STARTED = True - Part4: Celery 是什么
简单的:可制作最简单的APP
高可用的:当连接丢失或失败时,Worker 和 Clients 将自动重试,并且一些 Broker 通过Primary/Primary或Primary/Replica复制的方式支持 HA
快速地:单个 Celery 进程每分钟可以处理数百万个任务,往返延迟仅为亚毫秒(使用 RabbitMQ、librabbitmq 和优化设置)。
灵活的:Celery的几乎每个部分都可以扩展或单独使用,自定义池实现、序列化器、压缩方案、日志记录、调度程序、消费者、生产者、代理传输等等。
支持多种代理Broker: MQ\Redis\...
支持多种任务结果存储库: MQ\Redis\Memcache\SQLAlchemy\Django ORM\Mongo DB ...
支持并发
支持序列化
- Part5: Celery 有哪些特征监控
调度
工作流
资源泄露保护
时间和速率限制
Worker组件 - Part6: 框架集成
框架名称 框架集成库 Pyramid https://pypi.org/project/pyramid_celery/ Pylons https://pypi.org/project/celery-pylons/ Flask not needed web2py https://pypi.org/project/web2py-celery/ Tornado https://pypi.org/project/tornado-celery/ Tryton https://pypi.org/project/celery_tryton/ Django https://docs.celeryq.dev/en/stable/django/first-steps-with-django.html#django-first-steps
image
- Part7: 安装和使用
pip install -U Celery
依赖包: Celery 还定义了一组包,可用于安装 Celery 和给定功能的依赖项。您可以在需求中或在pip 命令行中使用括号指定这些。可以通过用逗号分隔来指定多个包。
pip install "celery[librabbitmq]"
pip install "celery[librabbitmq,redis,auth,msgpack]"
有以下捆绑包可用:
序列化器
celery[auth]:
用于使用auth安全序列化器。
celery[msgpack]:
用于使用 msgpack 序列化器。
celery[yaml]:
用于使用 yaml 序列化器。
并发
celery[eventlet]:
使用https://pypi.org/project/eventlet/池。
celery[gevent]:
使用https://pypi.org/project/gevent/池。
传输和后端
celery[librabbitmq]:
用于使用 librabbitmq C 库。
celery[redis]:
使用 Redis 作为消息传输或结果后端。
celery[sqs]:
使用 Amazon SQS 作为消息传输(实验性)。
celery[tblib]:
使用该task_remote_tracebacks功能。
celery[memcache]:
使用 Memcached 作为结果后端(使用https://pypi.org/project/pylibmc/)
celery[pymemcache]:
使用 Memcached 作为结果后端(纯 Python 实现)。
celery[cassandra]:
使用 Apache Cassandra/Astra DB 作为带有 DataStax 驱动程序的结果后端。
celery[couchbase]:
使用 Couchbase 作为结果后端。
celery[arangodb]:
使用 ArangoDB 作为结果后端。
celery[elasticsearch]:
使用 Elasticsearch 作为结果后端。
celery[riak]:
使用 Riak 作为结果后端。
celery[dynamodb]:
使用 AWS DynamoDB 作为结果后端。
celery[zookeeper]:
使用 Zookeeper 作为消息传输。
celery[sqlalchemy]:
使用 SQLAlchemy 作为结果后端(支持)。
celery[pyro]:
用于使用 Pyro4 消息传输(实验性的)。
celery[slmq]:
用于使用 SoftLayer 消息队列传输(实验性)。
celery[consul]:
使用 Consul.io Key/Value 存储作为消息传输或结果后端(实验性的)。
celery[django]:
指定 Django 支持的最低版本。
您可能不应该在您的要求中使用它,它仅供参考。
celery[gcs]:
使用 Google Cloud Storage 作为结果后端(实验性)。
f99f16f4296737f92d89e3a1ebabc30b
Django 中如何使用 Celery 实现定时任务
7a4206fd44828d21cef73ffdc82e244d
- Part1: 安装 Django
Django==3.2.19
django-simple-captcha==0.5.17
django-timezone-field==4.1.2
djangorestframework==3.13.1
djangorestframework-simplejwt==5.2.0
- Part2:安装 redis
redis==4.5.4
django-redis==5.2.0
- Part3:配置 mysql-db
PyMySQL==1.0.2
pymongo==4.3.3
- Part4:安装 django 的 redis 和 celery 依赖
celery==5.2.7
django-celery-beat==2.2.0
django-celery-results==2.0.1
celery-once==3.0.1
- Part5:celery 配置(celery.py 和 settings.py)
celery.py
# -*- coding: utf-8 -*-
from __future__ import absolute_import, unicode_literals
import os
from celery_once import QueueOnce
from django.apps import apps
# set the default Django settings module for the 'celery' program.
from django.utils import timezone
from kombu import Queue, Exchange
from celery import Celery, platforms
from django.conf import settings
os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'django_template_v1.settings')
app = Celery('product_hub')
app.conf.ONCE = {
'backend': 'celery_once.backends.Redis',
'settings': {
'url': settings.CELERY_ONCE_URL,
'default_timeout': 60 * 60
}
}
app.now = timezone.now
app.config_from_object('django.conf:settings', namespace='CELERY')
default_exchange = Exchange('default', type='direct')
config_exchange = Exchange('config', type='direct')
app.conf.task_time_limit = 86400
app.conf.worker_prefetch_multiplier = 10
app.conf.worker_max_tasks_per_child = 100
app.conf.task_default_queue = 'default'
app.conf.task_default_exchange = 'default'
app.conf.task_default_routing_key = 'default'
app.conf.task_default_exchange_type = 'direct'
app.conf.task_queues = (
Queue('default', default_exchange, routing_key='default'),
Queue('config', config_exchange, routing_key='config'),
)
platforms.C_FORCE_ROOT = True
app.autodiscover_tasks(lambda: [n.name for n in apps.get_app_configs()])
class ProductHubTask(QueueOnce):
# def run(self, *args, **kwargs):
# pass
max_retries = 3
# autoretry_for = (Exception, KeyError, RuntimeError)
retry_kwargs = {'max_retries': 1}
retry_backoff = False
def on_failure(self, exc, task_id, args, kwargs, einfo):
print(str(einfo))
return super(ProductHubTask, self).on_failure(exc, task_id, args, kwargs, einfo)
def on_retry(self, exc, task_id, args, kwargs, einfo):
# print('task retry, reason: {0}'.format(exc))
print(str(einfo))
return super(ProductHubTask, self).on_failure(exc, task_id, args, kwargs, einfo)
settings.py
CELERY_ONCE_URL = "{}1".format(REDIS_URL)
CELERY_RESULT_BACKEND = "django-db" # 使用django数据库
CELERY_BROKER_URL = "{}8".format(REDIS_URL)
CELERY_BEAT_SCHEDULER = "django_celery_beat.schedulers:DatabaseScheduler"
# CELERY_ACCEPT_CONTENT = ["application/json"]
CELERY_ACCEPT_CONTENT = ["json", "application/text"]
CELERY_TASK_SERIALIZER = "json"
CELERY_RESULT_SERIALIZER = "json"
CELERYD_CONCURRENCY = 40 # celery worker的并发数
CELERY_MAX_TASKS_PER_CHILD = 20
CELERYD_MAX_TASKS_PER_CHILD = 20
# 这个表示每个工作的进程/线程/绿程 在执行 n 次任务后,主动销毁,之后会起一个新的。主要解决一些资源释放的问题。
CELERY_RESULT_EXPIRES = 7200 # celery任务执行结果的超时时间,
CELERY_TASK_RESULT_EXPIRES = 7200 # 这个表示保存任务结果的时长,这个时间会被设置到 redis 里面(假设 backend 是 redis ),如果抓取数据量大的话,是可以缩短保存的时间,# 节省 backend 的资源( redis 主要是内存)消耗,默认是 24 小时( 86400 ),单位是秒。
CELERY_TASK_TIME_LIMIT = 7200 # 单个任务的运行时间不超过此值,否则会被SIGKILL 信号杀死
CELERY_ENABLE_UTC = False
CELERY_WORKER_CONCURRENCY = 40 # celery worker的并发数
DJANGO_CELERY_BEAT_TZ_AWARE = True
CELERY_TIMEZONE = "Asia/Shanghai" # celery 时区问题
CELERY_TASK_TRACK_STARTED = True
------------INSTALLED_APPS-------------------
"django_celery_beat",
"django_celery_results.apps.CeleryResultConfig",
- Part6:创建 task 任务 app 下新建 tasks.py 文件 # import json
import logging
# from datetime import datetime, date
from celery import shared_task
rom django_template_v1.celery import ProductHubTask
logger = logging.getLogger("celery")
@shared_task(base=ProductHubTask)
def sync_redis_cart_to_mysql():
"""同步redis的数据到mysql做持久化保存"""
pass - Part7:启动 celery 的 worker
celery -A django_template_v1 worker -Q default -c 20 -l info -n default
- Part8:异步调用或定时调用
image
image
上述就是在 Django 中如何基础的使用 Celery 来实现异步和定时任务
a670552f577dc1222e3a3c36f4506bb3
最后
个人工作中的见解,可以参考来配置试试看,若文章有错误的地方欢迎指正。
image
相关推荐
- 定时任务工具,《此刻我要...》软件体验
-
之前果核给大家介绍过一款小众但实用的软件——小说规则下载器,可以把网页里的小说章节按照规则下载到本地,非常适合喜欢阅读小说的朋友。有意思的是,软件作者当时看到果核写的体验内容后,给反推荐到他的帖子里去...
- 前端定时任务的神库:Node-cron,让你的项目更高效!
-
在前端开发中,定时任务是一个常见的需求。无论是定时刷新数据、轮询接口,还是发送提醒,都需要一个可靠且灵活的定时任务解决方案。今天,我要向大家介绍一个强大的工具——Node-cron,它不仅能解决定时任...
- Shutter Pro!一款多功能定时执行任务工具
-
这是一款可以在电脑上定时执行多种任务的小工具,使用它可以根据时间,电量等来设定一些定时任务,像定时打开程序、打开文件,定时关机重启,以及定时弹窗提醒等都可以轻松做到。这是个即开即用的小工具,无需安装,...
- 深度解析 Redis 缓存击穿及解决方案
-
在当今互联网大厂的后端开发体系中,Redis缓存占据着极为关键的地位。其凭借高性能、丰富的数据类型以及原子性操作等显著优势,助力众多高并发系统从容应对海量用户的访问冲击,已然成为后端开发从业者不可或...
- 从零搭建体育比分网站完整步骤(比较好的体育比分软件)
-
搭建一个体育比分网站是一个涉及前端、后端、数据源、部署和维护的完整项目。以下是从零开始搭建的详细流程:一、明确项目需求1.功能需求:实时比分展示(如足球、篮球、网球等)支持多个联赛和赛事历史数据查询比...
- 告别复杂命令行:GoCron 图形界面让定时任务触手可及
-
如果你是运维人员或者经常接触一些定时任务的配置,那么你一定希望有一款图形界面来帮助你方便的轻松配置定时任务,而GoCron就是这样一款软件,让你的配置可视化。什么是GoCron从名字你就可以大概猜到,...
- Java任务管理框架核心技术解析与分布式高并发实战指南
-
在当今数字化时代,Java任务管理框架在众多应用场景中发挥着关键作用。随着业务规模的不断扩大,面对分布式高并发的复杂环境,掌握其核心技术并进行实战显得尤为重要。Java任务管理框架的核心技术涵盖多个方...
- 链表和结构体实现:MCU软件定时器(链表在单片机中的应用)
-
在一般的嵌入式产品设计中,介于成本、功耗等,所选型的MCU基本都是资源受限的,而里面的定时器的数量更是有限。在我们软件设计中往往有多种定时需求,例如脉冲输出、按键检测、LCD切屏延时等等,我们不可能...
- SpringBoot定时任务(springboot定时任务每小时执行一次)
-
前言在我们开发中,经常碰到在某个时间点去执行某些操作,而我们不能人为的干预执行,这个时候就需要我们使用定时任务去完成该任务,下面我们来介绍下载springBoot中定时任务实现的方式。定时任务实现方式...
- 定时任务新玩法!systemd timer 完整实战详解
-
原文链接:「链接」Hello,大家好啊!今天给大家带来一篇使用systemdtimer实现定时任务调度的详细实战文章。相比传统的crontab,systemdtimer更加现代化、结构清晰...
- Celery与Django:打造高效DevOps的定时任务与异步处理神器
-
本文详细介绍了Celery这一强大的异步任务队列系统,以及如何在Django框架中应用它来实现定时任务和异步处理,从而提高运维开发(DevOps)的效率和应用性能。下面我们先认识一下Cele...
- 订单超时自动取消的7种方案,我用这种!
-
前言在电商、外卖、票务等系统中,订单超时未支付自动取消是一个常见的需求。这个功能乍一看很简单,甚至很多初学者会觉得:"不就是加个定时器么?"但真到了实际工作中,细节的复杂程度往往会超...
- 裸机下多任务框架设计与实现(gd32裸机配置lwip 网络ping不通)
-
在嵌入式系统中,特别是在没有操作系统支持的裸机环境下,实现多任务执行是一个常见的挑战。本文将详细介绍一种基于定时器的多任务框架设计,通过全局时钟和状态机机制,实现任务的非阻塞调度,确保任务执行中不会出...
- 亿级高性能通知系统构建,小白也能拿来即用
-
作者介绍赵培龙,采货侠JAVA开发工程师分享概要一、服务划分二、系统设计1、首次消息发送2、重试消息发送三、稳定性的保障1、流量突增2、问题服务的资源隔离3、第三方服务的保护4、中间件的容错5、完善...
- 运维实战:深度拆解Systemd定时任务原理,90%的人不知道的玩法
-
运维实战:深度拆解Systemd定时任务原理,90%的人不知道的高效玩法一、Systemd定时任务的核心原理Systemd定时任务是Linux系统中替代传统cron的现代化解决方案,通过...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- MVC框架 (46)
- spring框架 (46)
- 框架图 (58)
- bootstrap框架 (43)
- flask框架 (53)
- quartz框架 (51)
- abp框架 (47)
- jpa框架 (47)
- laravel框架 (46)
- express框架 (43)
- springmvc框架 (49)
- 分布式事务框架 (65)
- scrapy框架 (56)
- shiro框架 (61)
- 定时任务框架 (56)
- grpc框架 (55)
- ppt框架 (48)
- 内联框架 (52)
- winform框架 (46)
- gui框架 (44)
- cad怎么画框架 (58)
- ps怎么画框架 (47)
- ssm框架实现登录注册 (49)
- oracle字符串长度 (48)
- oracle提交事务 (47)