这个翻译以后竟然叫芹菜~~最近Django框架须要涉及到执行周期任务~~上网搜了下其实还挺多的(django_crontab:这个学习周期短,可是发现不只麻烦还很差用啊)、(apscheduler,简单还行在没彻底掌握Celery时先用它顶了一段时间,可是须要注意不一样版本的使用方法差异还挺大的),最后仍是决定花时间来学学,Celery是Python语言实现的分布式队列服务,除了支持即时任务,还支持定时任务。python
任务(Task)就是你要作的事情,例如一个注册流程里面有不少任务,给用户发验证邮件就是一个任务,这种耗时任务能够交给Celery去处理,还有一种任务是定时任务,好比天天定时统计网站的注册人数,这个也能够交给Celery周期性的处理。redis
Broker 的中文意思是经纪人,指为市场上买卖双方提供中介服务的人。在Celery中它介于生产者和消费者之间经纪人,这个角色至关于数据结构中的队列。例如一个Web系统中,生产者是处理核心业务的Web程序,业务中可能会产生一些耗时的任务,好比短信,生产者会将任务发送给 Broker,就是把这个任务暂时放到队列中,等待消费者来处理。消费者是 Worker,是专门用于执行任务的后台服务。Worker 将实时监控队列中是否有新的任务,若是有就拿出来进行处理。Celery 自己不提供队列服务,通常用 Redis 或者 RabbitMQ 来扮演 Broker 的角色django
Worker 就是那个一直在后台执行任务的人,也称为任务的消费者,它会实时地监控队列中有没有任务,若是有就当即取出来执行。数据结构
Beat 是一个定时任务调度器,它会根据配置定时将任务发送给 Broker,等待 Worker 来消费。app
Backend 用于保存任务的执行结果,每一个任务都有返回值,好比发送邮件的服务会告诉咱们有没有发送成功,这个结果就是存在Backend中,固然咱们并不老是要关心任务的执行结果。框架
一、安装(Celery4.x 开始再也不支持Windows平台,若是须要在Windows开发,请使用3.x的版本)异步
pip install celery==3.1.15
二、建立一个实例async
# 建立一个Celery实例,broker是管道用于储存任务,官方推荐Redis、RabbitMQ;backend用于存储任务执行结果 app = Celery("tasks", broker="redis://127.0.0.1:6379", backend='redis://127.0.0.1:6379')
三、直接上代码(新建一个celery_task1目录,里面建下面两个py文件)分布式
#!/usr/bin/env python3 # -*- encoding:utf-8 -*- """ author:Barret mail:barret_vip@163.com """ from celery import Celery import time # 建立Celery实例 app = Celery('tasks', broker='redis://127.0.0.1:6379', backend='redis://127.0.0.1:6379', ) app.conf.task_protocol = 1 # 建立任务 @app.task def add(x): time.sleep(1) print("开始任务了:%s" %x) return x
#!/usr/bin/env python3 # -*- encoding:utf-8 -*- """ author:Barret mail:barret_vip@163.com """ from celery.result import AsyncResult import sys dir = r"D:\today\celery_task1" sys.path.append(dir) # 个人任务文件不在环境变量里,IDLE找不到 from celerys import add reslut = add.delay(1) # 判断是否有值,get调用会阻塞 print(reslut) # 能够查看id,也可使用reslut.id获取id。 # 异步获取任务返回值 async_task = AsyncResult(id="45cf4a22-82d5-43f2-a0c9-8fd3af6b1136", app=add) # 判断异步任务是否执行成功 if async_task.successful(): r = reslut.get(propagate=False) # 出现异常返回异常不触发异常 print(r) else: print("任务还没执行完毕")
四、执行步骤(不建议直接在Django项目中建立,会出现报错)ide
# 一、打开CMD或者Pycharm下的Terminal执行下面命令: celery -A celerys worker -l info -P eventlet # 二、接着运行cmd.py便可打印结果
结果出现这样的即运行成功:
# 在app建立的时候指定 CELERY_TASK_PROTOCOL = 1 # Django中使用这个 app.conf.task_protocol = 1
reslut.get() # 会报错这里是实例化的时候,没有定义backend,就是保存任务结果的位置。
好吧我算是把各类报错都玩了个遍~~~~
Traceback (most recent call last): File "d:\programmingsoftware\python35\lib\site-packages\billiard\pool.py", line 358, in workloop result = (True, prepare_result(fun(*args, **kwargs))) File "d:\programmingsoftware\python35\lib\site-packages\celery\app\trace.py", line 525, in _fast_trace_task tasks, accept, hostname = _loc ValueError: not enough values to unpack (expected 3, got 0)
pip install eventlet # 安装一下 celery -A task1 worker -l info -P eventlet # 将启动命令改为这个 再去执行cmd.py就没问题了~~
更新中..................