一、celery简介
Celery是一个Python开发的异步分布式任务调度模块。celery本身不提供消息服务,使用第三方服务,也就是borker来传递任务,目前支持rebbing, redis, 数据库等。
broker是一个消息传输的中间件,可以理解为一个邮箱。每当应用程序调用celery的异步任务的时候,会向broker传递消息,而后celery的worker将会取到消息,进行对于的程序执行。好吧,这个邮箱可以看成是一个消息队列。那么什么又是backend,通常程序发送的消息,发完就完了,可能都不知道对方时候接受了。为此,celery实现了一个backend,用于存储这些消息以及celery执行的一些消息和结果。对于 brokers,官方推荐是rabbitmq和redis,至于backend,就是数据库啦。为了简单起见,我们都用redis。
redis连接URL的格式为:
redis://password@hostname:port/db_number
二、celery小例子
1.在Linux上要先启动redis(./redis-server &)。
2.程序代码如下:
#!/usr/bin/env python # -*- coding:utf-8 -*- # @Time :2017/12/19 15:12 # @Author :huangdongju # @File :17-2.py from celery import Celery broker = "redis://192.168.203.12:6379/5" #5代表第五个数据库 backend = "redis://192.168.203.12:6379/6" app = Celery("17-2",broker=broker,backend=backend) @app.task #注册到任务中去 def add(x,y): return x + y re = add.delay(10,20) print (re.result) print (re.ready) print (re.get(timeout = 1)) print (re.status)
3.将worker放置在Linux上,在Linux上进行如下配置(Python的版本至少为2.7.0以上)。
# pip install redis
# pip install celery
# cd /usr/local/src
# mkdir celery
# cd celery
# vim 17-2.py (要与之前的文件名相同)
# celery -A 17-2 worker - l info
4.结果
在Linux上输出的日志为:
三、celery多实例
celery可以支持多台不通的计算机执行不同的任务或相同的任务。如果要说celery的分布式应用的的话,那就是celery的消息路由机制,就要提一下AMQP协议。具体的可以查看AMQP文档。简单来说就是可以有多个消息队列(Message Queue),不同的消息可以指定发给不同的Message Queue,而这是通过Exchange来实现的。发送消息到Message Queue中时,可以指定routing key ,Exchange通过routing key来把消息路由(routes)到不同的Message Queue中去。实例代码如下:
#!/usr/bin/env python # -*- coding:utf-8 -*- # @Time :2017/12/20 16:19 # @Author :huangdongju # @File :demon3.py import time from celery import Celery app = Celery() app.config_from_object("celeryconfig") @app.task def taskA(x,y): return x*y @app.task def taskB(x,y,z): return x+y+z @app.task def add(x,y): return x+y
#!/usr/bin/env python
# -*- coding:utf-8 -*-
# @Time :2017/12/20 9:44
# @Author :huangdongju
# @File :celeryconfig.py
from kombu import Queue, Exchange
BROKER_URL = "redis://192.168.203.12:6379/1"
CELERY_RESULT_BACKEND = "redis://192.168.203.12:6379/2" #要大写
CELERY_QUEUES = { #配置消息队列
Queue("default",Exchange("default"),routing_key = "default"),
Queue("for_task_A",Exchange("for_task_A"),routing_key = "for_task_A"),
Queue("for_task_B",Exchange("for_task_B"),routing_key = "for_task_B")
}
CELERY_ROUTES ={
"demon3.taskA":{"queue":"for_task_A","routing_key":"for_task_A"},
"demon3.taskB":{"queue":"for_task_B","routing_key":"for_task_B"}
}
在服务器上要同步demon3.py与celeryconfig.py这两个文件。然后打开两个进程:
celery -A demon3 worker -l info -n workerA.%h -Q for_task_A
celery -A demon3 worker -l info -n workerB.%h -Q for_task_B
结果如下:
200
SUCCESS
6
SUCCESS
None
PENDING
在上述结果中,看到状态有为PENDING,表示没有执行,这是因为没有celeryconfig.py文件中指定改route到哪一个Queue中,所以会被发动到默认的名字celery的Queue中,但是我们还没有启动worker执行celery中的任务。
四、celery与定时任务
在celery中执行定时任务非常简单,只需要设置celery对象中的CELERY_SCHEDULE变量。实例代码为:
#!/usr/bin/env python # -*- coding:utf-8 -*- # @Time :2017/12/20 16:19 # @Author :huangdongju # @File :demon3.py import time from celery import Celery app = Celery() app.config_from_object("celeryconfig") @app.task def taskA(x,y): return x*y @app.task def taskB(x,y,z): return x+y+z @app.task def add(x,y): return x+y
#!/usr/bin/env python
# -*- coding:utf-8 -*-
# @Time :2017/12/20 9:44
# @Author :huangdongju
# @File :celeryconfig.py
from kombu import Queue, Exchange
BROKER_URL = "redis://192.168.203.12:6379/1"
CELERY_RESULT_BACKEND = "redis://192.168.203.12:6379/2" #要大写
CELERY_QUEUES = { #配置消息队列
Queue("default",Exchange("default"),routing_key = "default"),
Queue("for_task_A",Exchange("for_task_A"),routing_key = "for_task_A"),
Queue("for_task_B",Exchange("for_task_B"),routing_key = "for_task_B")
}
CELERY_ROUTES ={
"demon3.taskA":{"queue":"for_task_A","routing_key":"for_task_A"},
"demon3.taskB":{"queue":"for_task_B","routing_key":"for_task_B"}
}
#定时任务
CELERY_TIMEZONE = 'UTC'
CELERY_SCHEDULE = {
'taskA_schedule':{
'task':'demon3.taskA',
'schedule':20,
'args':(5,6)
},
'taskB_schedule':{
'task':'demon3.taskB',
'schedule':50,
'args':(100,200,300)
},
'add_schedule':{
'task':'demon3.add',
'schedule':10,
'args':(110,120)
},
}