博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Celery(一个懂得 异步任务、定时任务、周期任务 的"芹菜")
阅读量:2241 次
发布时间:2019-05-09

本文共 4433 字,大约阅读时间需要 14 分钟。

一、什么是Celery?

  Celery 是基于Python实现的模块,用于执行异步、定时、周期任务的,其结构的组成是:

  - 用户任务 app
  - 管道 broker 用于存储任务(官方推荐 redis/rabbitMQ),backend 用于存储任务执行结果
  - 员工 worker

二、Celery的简单实例

from celery import Celeryimport time# 创建一个Celery实例,这就是我们用户的应用appmy_task = Celery("tasks", broker="redis://127.0.0.1:6379", backend="redis://127.0.0.1:6379")# 为应用创建任务,func1@my_task.taskdef func1(x, y):    time.sleep(15)    return x + y
s1.py
from s1 import func1# 将任务交给Celery的Worker执行res = func1.delay(2,4)# 返回任务IDprint(res.id)
s2.py
from celery.result import AsyncResultfrom s1 import my_task# 异步获取任务返回值async_task = AsyncResult(id="31ec65e8-3995-4ee1-b3a8-1528400afd5a",app=my_task)# 判断异步任务是否执行成功if async_task.successful():    # 获取异步任务的返回值    result = async_task.get()    print(result)else:    print("任务还未执行完成")
s3.py

  三个文件创建完成了,我们来分析哪个文件是app,哪个文件是borker,哪个是worker。

  最终我们要执行的任务是在 s1.py 中,也就是worker需要执行的任务,所以worker就是 s1.py了。
  现在我们就来启动worker,如何启动呢?根据操作系统的不同,启动方式也存在差异:
  Linux - 

celery worker -A s1 -l INFO

  Windows:这里需要注意的是celery 4.0 已经不再对Windows操作系统提供支持了,也就是在windows环境下出现问题除非自己解决,否则官方是不会给你解决的。

  Windows - 

celery worker -A s1 -l INFO -P eventlet

  ps:eventlet 是一个python的三方库,需要使用 pip安装 pip install eventlet。

  启动完成,其实在s1.py当中,worker已经知道了自己的broker 和 backend 在哪里了,接下来就让异步任务开始执行,s2.py 中就是使用 delay 的方式来开始执行的异步任务,执行 s2.py 得到了一个字符串 55a84ea3-afa4-4ab9-8650-40e156c07441 这个字符串就是异步任务的ID,在Celery worker 的控制台中可以看到这个样子,如下图:

  等待15秒钟之后就可以的到这样一个字符串,如下图:

  然后通过s3.py修改异步任务的ID来获取任务返回的结果,如下图:

   

  这样就简单完成了一个Celery异步任务了。

 三、Celery项目目录

   在实际项目中我们应用Celery是有规则的,如下图:

 

  要满足这样的条件才可以,目录Celery_task这个名字可以随意起,但是一定要注意在这个目录下一定要有一个celery.py这个文件。

from celery import Celerycelery_task = Celery("task",                     broker="redis://127.0.0.1:6379",                     backend="redis://127.0.0.1:6379",                     include=["Celery_task.task_one","Celery_task.task_two"])# include 这个参数适用于寻找目录中所有的task
celery.py
from .celery import celery_taskimport time@celery_task.taskdef one(x,y):    time.sleep(5)    return f"task_one {x+y}"
task_one.py
from .celery import celery_taskimport time@celery_task.taskdef two(x,y):    time.sleep(5)    return f"task_two {x+y}"
task_two.py

  这样Celery项目目录结构就已经做好了,然后在my_celery.py中调用:

from Celery_task.task_one import onefrom Celery_task.task_two import twoone.delay(10,10)two.delay(20,20)
my_celery.py

  PS:启动Worker的时候无需再使用文件启动,直接启动你的Celery_task目录就行了。

  celery worker -A Celery_task -l INFO -P eventlet
  这样celery就可以自动的去检索当前目录下所有的task了,通过include这个参数逐一去寻找。

四、Celery定时任务

  我们还使用Celery_task这个示例来修改一下,my_celery中进行一下小修改:

from Celery_task.task_one import onefrom Celery_task.task_two import two# one.delay(10,10)# two.delay(20,20)# 定时任务我们不在使用delay这个方法了,delay是立即交给task 去执行# 现在我们使用apply_async定时执行# 首先我们要先给task一个执行任务的时间import datetime,time# 获取当前时间 此时间为东八区时间ctime = time.time()# 将当前的东八区时间改为 UTC时间 注意这里一定是UTC时间,没有其他说法utc_time = datetime.datetime.utcfromtimestamp(ctime)# 为当前时间增加 10 秒add_time = datetime.timedelta(seconds=10)action_time = utc_time + add_time# action_time 就是当前时间未来10秒之后的时间# 现在我们使用apply_async定时执行res = one.apply_async(args=(10,10),eta=action_time)print(res.id)# 这样原本延迟5秒执行的One函数现在就要在10秒钟以后执行了
my_celery.py

  定时任务只能被执行一次,那如果我想每隔10秒都去执行一次这个任务怎么办呢? 使用周期任务实现。

五、Celery周期任务

  首先要对Celery_task中的celery.py进行一点修改:

from celery import Celeryfrom celery.schedules import crontabcelery_task = Celery("task",                     broker="redis://127.0.0.1:6379",                     backend="redis://127.0.0.1:6379",                     include=["Celery_task.task_one","Celery_task.task_two"])# 我要要对beat任务生产做一个配置,这个配置的意思就是每10秒执行一次Celery_task.task_one任务参数是(10,10)celery_task.conf.beat_schedule={    "each10s_task":{        "task":"Celery_task.task_one.one",        "schedule":10, # 每10秒钟执行一次        "args":(10,10)    },    "each1m_task": {        "task": "Celery_task.task_one.one",        "schedule": crontab(minute=1), # 每一分钟执行一次        "args": (10, 10)    },    "each24hours_task": {        "task": "Celery_task.task_one.one",        "schedule": crontab(hour=24), # 每24小时执行一次        "args": (10, 10)    }}# 以上配置完成之后,还有一点非常重要# 不能直接创建Worker了,因为我们要执行周期任务,所以首先要先有一个任务的生产方# celery beat -A Celery_task# celery worker -A Celery_task -l INFO -P eventlet
celery.py

  创建Worker的方式并没有发行变化,但是这里要注意的是,每间隔一定时间后需要生产出来任务给Worker去执行,这里需要一个生产者beat。

  celery beat -A Celery_task         # 创建生产者 beat,你的 schedule 写在哪里,就要从哪里启动

 

  celery worker -A Celery_task -l INFO -P eventlet

  创建worker之后,每10秒就会由beat创建一个任务给Worker去执行:

  到此为止 Celery的应用就已经介绍完了。

 

转载于:https://www.cnblogs.com/li-li/p/10395942.html

你可能感兴趣的文章
阿里云《云原生》公开课笔记 第三章 kubernetes核心概念
查看>>
阿里云《云原生》公开课笔记 第四章 理解Pod和容器设计模式
查看>>
阿里云《云原生》公开课笔记 第五章 应用编排与管理
查看>>
阿里云《云原生》公开课笔记 第六章 应用编排与管理:Deployment
查看>>
阿里云《云原生》公开课笔记 第七章 应用编排与管理:Job和DaemonSet
查看>>
阿里云《云原生》公开课笔记 第八章 应用配置管理
查看>>
阿里云《云原生》公开课笔记 第九章 应用存储和持久化数据卷:核心知识
查看>>
linux系统 阿里云源
查看>>
国内外helm源记录
查看>>
牛客网题目1:最大数
查看>>
散落人间知识点记录one
查看>>
Leetcode C++ 随手刷 547.朋友圈
查看>>
手抄笔记:深入理解linux内核-1
查看>>
内存堆与栈
查看>>
Leetcode C++《每日一题》20200621 124.二叉树的最大路径和
查看>>
Leetcode C++《每日一题》20200622 面试题 16.18. 模式匹配
查看>>
Leetcode C++《每日一题》20200625 139. 单词拆分
查看>>
Leetcode C++《每日一题》20200626 338. 比特位计数
查看>>
Leetcode C++ 《拓扑排序-1》20200626 207.课程表
查看>>
Go语言学习Part1:包、变量和函数
查看>>