Celery Celery - 一个懂得 异步任务 , 定时任务 , 周期任务 的芹菜

Celery - 一个懂得 异步任务 , 定时任务 , 周期任务 的芹菜

 

1.什么是Celery?
Celery 是芹菜
Celery 是基于Python实现的模块, 用于执行异步定时周期任务的
其结构的组成是由
    1.用户任务 app
    2.管道 broker 用于存储任务 官方推荐 redis rabbitMQ  / backend 用于存储任务执行结果的
    3.员工 workerhtml

 

2.Celery的简单实例python

 1 from celery import Celery
 2 import time
 3 
 4 #建立一个Celery实例,这就是咱们用户的应用app
 5 my_task = Celery("tasks", broker="redis://127.0.0.1:6379", backend="redis://127.0.0.1:6379")
 6 
 7 # 为应用建立任务,func1
 8 @my_task.task
 9 def func1(x, y):
10     time.sleep(15)
11     return x + y
s1.py
1 from s1 import func1
2 
3 # 将任务交给Celery的Worker执行
4 res = func1.delay(2,4)
5 
6 #返回任务ID
7 print(res.id)
s2.py
 1 from celery.result import AsyncResult
 2 from s1 import my_task
 3 
 4 # 异步获取任务返回值
 5 async_task = AsyncResult(id="31ec65e8-3995-4ee1-b3a8-1528400afd5a",app=my_task)
 6 
 7 # 判断异步任务是否执行成功
 8 if async_task.successful():
 9     #获取异步任务的返回值
10     result = async_task.get()
11     print(result)
12 else:
13     print("任务还未执行完成")
s3.py

三个文件建立完成了,细心的同窗如今已经开始分析哪一个文件是app,哪一个文件是borker,哪一个是worker了
那咱们得一步一步分析了,最终咱们要执行的任务是在 s1.py 中,也就是worker须要执行的任务,因此worker就是 s1.py了
如今咱们就来启动worker,如何启动呢
根据操做系统的不一样,启动方式也存在差别:
Linux - celery worker -A s1 -l INFO
Windows:这里须要注意的是celery 4.0 已经再也不对Windows操做系统提供支持了,也就是在windows环境下出现问题除非本身解决,否贼官方是不会给你解决的
Windows - celery worker -A s1 -l INFO -P eventlet
ps: eventlet 是一个python的三方库 须要使用 pip安装 pip install eventletredis

启动完成,其实在s1.py当中,worker已经知道了本身的broker 和 backend 在哪里了
接下来就让异步任务开始执行吧,对了 s2.py 中就是使用 delay 的方式来开始执行的异步任务
执行 s2.py 获得了一个字符串 55a84ea3-afa4-4ab9-8650-40e156c07441 这个字符串儿就是异步任务的ID
在Celery worker 的控制台中能够看到这个样子
windows

等待15秒钟以后就能够的到这样一个字符串
app

而后经过s3.py修改异步任务的ID来获取任务返回的结果
异步

这样就简单完成了一个Celery异步任务了async

 

3.Celery 结合 Flask 模拟"抢购"系统ide

https://pan.baidu.com/s/15T08QUBYWqi8QjE0sPUBlg函数

下载源码查看示例post

 

4.Celery项目目录

在实际项目中咱们应用Celery是有规则的

要知足这样的条件才能够哦,目录Celery_task这个名字能够随意起,可是必定要注意在这个目录下必定要有一个celery.py这个文件

1 from celery import Celery
2 
3 celery_task = Celery("task",
4                      broker="redis://127.0.0.1:6379",
5                      backend="redis://127.0.0.1:6379",
6                      include=["Celery_task.task_one","Celery_task.task_two"])
7 # include 这个参数适用于寻找目录中全部的task
celery.py
1 from .celery import celery_task
2 import time
3 
4 @celery_task.task
5 def one(x,y):
6     time.sleep(5)
7     return f"task_one {x+y}"
task_one
1 from .celery import celery_task
2 import time
3 
4 @celery_task.task
5 def two(x,y):
6     time.sleep(5)
7     return f"task_two {x+y}"
task_two

这样Celery项目目录结构就已经作好了而后再 my_celery中调用

1 from Celery_task.task_one import one
2 from Celery_task.task_two import two
3 
4 one.delay(10,10)
5 two.delay(20,20)
my_celery.py

PS:启动Worker的时候无需再使用文件启动,直接启动你的Celery_task目录就好了
celery worker -A Celery_task -l INFO -P eventlet
这样celery就能够自动的去检索当前目录下全部的task了,经过Include这个参数逐一去寻找
 

5.Celery定时任务
咱们还使用Celery_task这个示例来修改一下
my_celery中进行一下小修改

 1 from Celery_task.task_one import one
 2 from Celery_task.task_two import two
 3 
 4 # one.delay(10,10)
 5 # two.delay(20,20)
 6 
 7 # 定时任务咱们不在使用delay这个方法了,delay是当即交给task 去执行
 8 # 如今咱们使用apply_async定时执行
 9 
10 #首先咱们要先给task一个执行任务的时间
11 import datetime,time
12 # 获取当前时间 此时间为东八区时间
13 ctime = time.time()
14 # 将当前的东八区时间改成 UTC时间 注意这里必定是UTC时间,没有其余说法
15 utc_time = datetime.datetime.utcfromtimestamp(ctime)
16 # 为当前时间增长 10 秒
17 add_time = datetime.timedelta(seconds=10)
18 action_time = utc_time + add_time
19 
20 # action_time 就是当前时间将来10秒以后的时间
21 #如今咱们使用apply_async定时执行
22 res = one.apply_async(args=(10,10),eta=action_time)
23 print(res.id)
24 #这样本来延迟5秒执行的One函数如今就要在10秒钟之后执行了
my_celery

定时任务只能被执行一次,那若是我想每隔10秒都去执行一次这个任务怎么办呢? 周期任务来了

 

6.Celery周期任务

首先要对Celery_task中的celery.py进行一点修改:

 1 from celery import Celery
 2 from celery.schedules import crontab
 3 
 4 celery_task = Celery("task",
 5                      broker="redis://127.0.0.1:6379",
 6                      backend="redis://127.0.0.1:6379",
 7                      include=["Celery_task.task_one","Celery_task.task_two"])
 8 
 9 #我要要对beat任务生产作一个配置,这个配置的意思就是每10秒执行一次Celery_task.task_one任务参数是(10,10)
10 celery_task.conf.beat_schedule={
11     "each10s_task":{
12         "task":"Celery_task.task_one.one",
13         "schedule":10, # 每10秒钟执行一次
14         "args":(10,10)
15     },
16     "each1m_task": {
17         "task": "Celery_task.task_one.one",
18         "schedule": crontab(minute=1), # 每一分钟执行一次
19         "args": (10, 10)
20     },
21     "each24hours_task": {
22         "task": "Celery_task.task_one.one",
23         "schedule": crontab(hour=24), # 每24小时执行一次
24         "args": (10, 10)
25     }
26 
27 }
28 
29 #以上配置完成以后,还有一点很是重要
30 # 不能直接建立Worker了,由于咱们要执行周期任务,因此首先要先有一个任务的生产方
31 # celery beat -A Celery_task
32 # celery worker -A Celery_task -l INFO -P eventlet
celery.py

建立Worker的方式并无发行变化,可是这里要注意的是,每间隔必定时间后须要生产出来任务给Worker去执行,这里须要一个生产者beat

celery beat -A Celery_task  #建立生产者 beat 你的 schedule 写在哪里,就要从哪里启动

 celery worker -A Celery_task -l INFO -P eventlet

 建立worker以后,每10秒就会由beat建立一个任务给Worker去执行

到此为止 Celery的应用就已经完事儿了,Bye

相关文章
相关标签/搜索