项目部署Django+celery+redis

celery介绍

一、celery应用举例html

 一、Celery 是一个 基于python开发的分布式异步消息任务队列,经过它能够轻松的实现任务的异步处理,
    若是你的业务场景中须要用到异步任务,就能够考虑使用celerypython

 二、你想对100台机器执行一条批量命令,可能会花很长时间 ,但你不想让你的程序等着结果返回,而是给你返回 一个任务ID,
    你过一段时间只须要拿着这个任务id就能够拿到任务执行结果, 在任务执行ing进行时,你能够继续作其它的事情git

 三、Celery 在执行任务时须要经过一个消息中间件来接收和发送任务消息,以及存储任务结果, 通常使用rabbitMQ or Redisgithub

二、Celery有如下优势redis

 一、简单:一单熟悉了celery的工做流程后,配置和使用仍是比较简单的shell

 二、高可用:当任务执行失败或执行过程当中发生链接中断,celery 会自动尝试从新执行任务数据库

 三、快速:一个单进程的celery每分钟可处理上百万个任务django

 四、灵活: 几乎celery的各个组件均可以被扩展及自定制json

三、Celery基本工做流程图windows

      

    user:用户程序,用于告知celery去执行一个任务。
    broker: 存听任务(依赖RabbitMQ或Redis,进行存储)
    worker:执行任务

四、Celery 特性 

 1)方便查看定时任务的执行状况, 如 是否成功, 当前状态, 执行任务花费的时间等.

 2)可选 多进程, Eventlet 和 Gevent 三种模型并发执行.

 3)Celery 是语言无关的.它提供了python 等常见语言的接口支持.

celery 组件

一、Celery 扮演生产者和消费者的角色

 Celery Beat : 任务调度器. Beat 进程会读取配置文件的内容, 周期性的将配置中到期须要执行的任务发送给任务队列.

 Celery Worker : 执行任务的消费者, 一般会在多台服务器运行多个消费者, 提升运行效率.

 Broker : 消息代理, 队列自己. 也称为消息中间件. 接受任务生产者发送过来的任务消息, 存进队列再按序分发给任务消费方(一般是消息队列或者数据库).

 Producer : 任务生产者. 调用 Celery API , 函数或者装饰器, 而产生任务并交给任务队列处理的都是任务生产者.

 Result Backend : 任务处理完成以后保存状态信息和结果, 以供查询.

二、celery架构图

      

3. 产生任务的方式 

 1) 发布者发布任务(WEB 应用)

 2) 任务调度定期发布任务(定时任务)

4. celery 依赖三个库: 这三个库, 都由 Celery 的开发者开发和维护.

 billiard : 基于 Python2.7 的 multisuprocessing 而改进的库, 主要用来提升性能和稳定性.

 librabbitmp : C 语言实现的 Python 客户端

 kombu : Celery 自带的用来收发消息的库, 提供了符合 Python 语言习惯的, 使用 AMQP 协议的高级借口.

安装相关包与管理命令

一、安装相关软件包

复制代码
pip3 install Django==2.0.4
pip3 install celery==4.3.0
pip3 install redis==3.2.1
pip3 install django-celery==3.1.17
pip3 install ipython==7.6.1 

find ./ -type f | xargs sed -i 's/\r$//g'  # 批量将当前文件夹下全部文件装换成unix格式
复制代码

二、celery管理

复制代码
celery multi start w1 w2 -A celery_pro -l info     #一次性启动w1,w2两个worker
celery -A celery_pro status                        #查看当前有哪些worker在运行
celery multi stop w1 w2 -A celery_pro              #中止w1,w2两个worker

celery  multi start celery_test -A celery_test -l debug --autoscale=50,5        # celery并发数:最多50个,最少5个
ps auxww|grep "celery worker"|grep -v grep|awk '{print $2}'|xargs kill -9       # 关闭全部celery进程
复制代码

三、django_celery_beat管理

celery -A celery_test beat -l info -S django                   #启动心跳任务
ps -ef | grep -E "celery -A celery_test beat" | grep -v grep| awk '{print $2}' | xargs kill -TERM &> /dev/null  # 杀死心跳全部进程

安装相关包 与 管理命令

一、在Django中使用celery介绍(celery没法再windows下运行)

 1)在Django中使用celery时,celery文件必须以tasks.py

 2)Django会自动到每一个APP中找tasks.py文件

二、建立一个Django项目celery_test,和app01

三、在与项目同名的目录下建立celery.py

# -*- coding: utf-8 -*-
from __future__ import absolute_import import os from celery import Celery # 只要是想在本身的脚本中访问Django的数据库等文件就必须配置Django的环境变量
os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'celery_test.settings') # app名字
app = Celery('celery_test') # 配置celery
class Config: BROKER_URL = 'redis://192.168.56.11:6379' CELERY_RESULT_BACKEND = 'redis://192.168.56.11:6379' app.config_from_object(Config) # 到各个APP里自动发现tasks.py文件
app.autodiscover_tasks() celery.py
celery.py

四、在与项目同名的目录下的 init.py 文件中添加下面内容

# -*- coding:utf8 -*-
from __future__ import absolute_import, unicode_literals # 告诉Django在启动时别忘了检测个人celery文件
from .celery import app as celery_ap __all__ = ['celery_app']
__init__.py

五、建立app01/tasks.py文件

# -*- coding:utf8 -*-
from __future__ import absolute_import, unicode_literals from celery import shared_task import time # 这里再也不使用@app.task,而是用@shared_task,是指定能够在其余APP中也能够调用这个任务
@shared_task def add(x,y): print('########## running add #####################') return x + y @shared_task def minus(x,y): time.sleep(30) print('########## running minus #####################') return x - y
app01/tasks.py

六、将celery_test这个Django项目拷贝到centos7.3的django_test文件夹中

七、保证启动了redis-server

八、启动一个celery的worker

复制代码
celery multi start w1 w2 -A celery_pro -l info     #一次性启动w1,w2两个worker
celery -A celery_pro status                        #查看当前有哪些worker在运行
celery multi stop w1 w2 -A celery_pro              #中止w1,w2两个worker

celery  multi start celery_test -A celery_test -l debug --autoscale=50,5        # celery并发数:最多50个,最少5个
ps auxww|grep "celery worker"|grep -v grep|awk '{print $2}'|xargs kill -9       # 关闭全部celery进程
复制代码

九、测试celery

./manage.py shell import tasks t1 = tasks.minus.delay(5,3) t2 = tasks.add.delay(3,4) t1.get() t2.get()

1.5 在django中使用计划任务功能

  一、在Django中使用celery的定时任务须要安装django-celery-beat

      pip3 install django-celery-beat

  二、在Django的settings中注册django_celery_beat

INSTALLED_APPS = (
    ...,
    'django_celery_beat',
)

  三、执行建立表命令

      python3 manage.py makemigrations

      python3 manage.py migrate

  四、在与项目同名的目录下的celery.py中添加定时任务

# -*- coding: utf-8 -*-
from __future__ import absolute_import import os from celery import Celery from celery.schedules import crontab from datetime import timedelta from kombu import Queue # 只要是想在本身的脚本中访问Django的数据库等文件就必须配置Django的环境变量
os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'celery_test.settings') # app名字
app = Celery('celery_test') # 配置celery
class Config: BROKER_URL = 'redis://192.168.56.11:6379'  # broker
    CELERY_RESULT_BACKEND = 'redis://192.168.56.11:6379'  # backend
    CELERY_ACCEPT_CONTENT = ['application/json']  # 指定任务接受的内容类型(序列化)
    CELERY_TASK_SERIALIZER = 'json'  # 任务的序列化方式
    CELERY_RESULT_SERIALIZER = 'json'  # 任务执行结果的序列化方式
    CELERY_TIMEZONE = 'Asia/Shanghai'  # 时区设置,计划任务须要,推荐 Asia/Shanghai
    ENABLE_UTC = False  # 不使用UTC时区
    CELERY_TASK_RESULT_EXPIRES = 60 * 60  # celery任务执行结果的超时时间
    CELERY_ANNOTATIONS = {'*': {'rate_limit': '500/s'}} # CELERYD_PREFETCH_MULTIPLIER = 10 # 每次取任务的数量
    CELERYD_MAX_TASKS_PER_CHILD = 16  # 每一个worker执行了多少任务就会死掉,防止内存泄漏
 app.config_from_object(Config) app.autodiscover_tasks() #crontab config
app.conf.update( CELERYBEAT_SCHEDULE = { # 每隔3s执行一次add函数
        'every-3-min-add': { 'task': 'app01.tasks.add', 'schedule': timedelta(seconds=10) }, # 天天下午15:420执行
        'add-every-day-morning@14:50': { 'task': 'app01.tasks.minus', 'schedule': crontab(hour=19, minute=50, day_of_week='*/1'), }, }, ) # kombu : Celery 自带的用来收发消息的库, 提供了符合 Python 语言习惯的, 使用 AMQP 协议的高级接口
Queue('transient', routing_key='transient',delivery_mode=1)
celery.py

  五、app01/tasks.py  

# -*- coding:utf8 -*-
from __future__ import absolute_import, unicode_literals from celery import shared_task import time # 这里再也不使用@app.task,而是用@shared_task,是指定能够在其余APP中也能够调用这个任务
@shared_task def add(): print('########## running add #####################') return 'add' @shared_task def minus(): time.sleep(30) print('########## running minus #####################') return 'minus'

  六、管理命令

复制代码
'''一、celery管理 '''
celery  multi start celery_test -A celery_test -l debug --autoscale=50,5        # celery并发数:最多50个,最少5个
ps auxww|grep "celery worker"|grep -v grep|awk '{print $2}'|xargs kill -9       # 关闭全部celery进程

'''二、django-celery-beat心跳服务管理 '''
celery -A celery_test beat -l info -S django                   #启动心跳任务
ps -ef | grep -E "celery -A celery_test beat" | grep -v grep| awk '{print $2}' | xargs kill -TERM &> /dev/null  # 杀死心跳全部进程
复制代码

使用 Celery Once 来防止 Celery 重复执行同一个任务

一、产生重复执行缘由

 1. 当咱们设置一个ETA(预估执行时间)比visibility_timeout(超时时间)长的任务时,会出现重复执行问题

 2. 由于每过一次 visibility_timeout 时间,celery就会认为这个任务没被worker执行成功,从新分配给其它worker再执行

二、Celery Once解决方法

 1. Celery Once 也是利用 Redis 加锁来实现,他的使用很是简单,参照 GitHub 的使用很快就可以用上。

 2. Celery Once 在 Task 类基础上实现了 QueueOnce 类,该类提供了任务去重的功能

 3. 因此在使用时,咱们本身实现的方法须要将 QueueOnce 设置为 base

@celery.task(base=QueueOnce, once={'keys': ['a']})
def slow_add(a, b):
    sleep(30)
    return a + b

 4. 后面的 once 参数表示,在遇到重复方法时的处理方式,默认 graceful 为 False,那样 Celery 会抛出 AlreadyQueued 异常,手动设置为 True,则静默处理。

 5. 能够手动设置任务的 key,能够指定 keys 参数。

三、celery once使用

  参考官方:https://github.com/cameronmaske/celery-once

#! /usr/bin/env python # -*- coding: utf-8 -*-
'''第一步: 安装''' pip install -U celery_once '''第二步: 增长配置'''
from celery import Celery from celery_once import QueueOnce from time import sleep celery = Celery('tasks', broker='amqp://guest@localhost//') celery.conf.ONCE = { 'backend': 'celery_once.backends.Redis', 'settings': { 'url': 'redis://localhost:6379/0', 'default_timeout': 60 * 60 } } '''第三步: 修改 delay 方法''' example.delay(10) # 修改成
result = example.apply_async(args=(10)) '''第四步: 修改 task 参数''' @celery.task(base=QueueOnce, once={'graceful': True, keys': ['a']})
def slow_add(a, b): sleep(30) return a + b # 参考官方:https://github.com/cameronmaske/celery-once
celery once配置使用方法

redis会丢失消息 RabbitMQ不会丢失消息的缘由 

一、redis丢失消息的缘由

 1. 用 Redis 做 broker 的话,任务会存在内存里面,若是 celery 进程要结束了,就会在临死以前把队列存进 Redis,下次启动时再从 Redis 读取。

 2. 可是若是可见性超时时间过长在断电或者强制终止职程(Worker)的状况会“丢失“从新分配的任务。

 3. 好比当 celery 被 kill -9 了,任务将没法存进 Redis,内存中的任务会丢失,或者任务太多致使celery出现异常。

二、RabbitMQ如何保证可靠消费

 Redis: 没有相应的机制保证消息的消费,当消费者消费失败的时候,消息体丢失,须要手动处理

RabbitMQ: 具备消息消费确认,即便消费者消费失败,也会自动使消息体返回原队列,同时可全程持久化,保证消息体被正确消费