1 参照博客 https://www.cnblogs.com/xiaonq/p/9303941.html#i1
1 创建celery_pro包 # 可在任意文件下
2 在 celery_pro 下创建 celery.py 文件
# -*- coding:utf8 -*-
from __future__ import absolute_import, unicode_literals
#1. absolute_import 可以使导入的celery是python绝对路基的celery模块,不是当前我们创建的celery.py
#2. unicode_literals 模块可能是python2和3兼容的,不知道
from celery import Celery
# from .celery import Celery #这样才是导入当前目录下的celery
app = Celery('proj',
broker='redis://localhost',
backend='redis://localhost',
include=['celery_pro.tasks',
])
#celery-pro是存放celery文件的文件夹名字
#实例化时可以添加下面这个属性
app.conf.update(
result_expires=3600, #执行结果放到redis里,一个小时没人取就丢弃
)
import time
# 配置定时任务:每5秒钟执行 调用一次celery_pro下tasks.py文件中的add函数
app.conf.beat_schedule = {
'add-every-5-seconds': {
'task': 'celery_pro.tasks.add',
'schedule': 5.0,
'args': (16, 16),
},
}
app.conf.timezone = 'UTC'
if __name__ == '__macelery -A celery_pro beat -l infoin__':
app.start()
3 创建 tasks.py 文件
# -*- coding:utf8 -*-
from __future__ import absolute_import, unicode_literals
from .celery import app #从当前目录导入app
#写一个add函数
@app.task
def add(x, y):
print('执行函数')
return x + y
执行下面两条命令即可让celery定时执行任务了
1、 启动一个worker:在celery_pro外层目录下执行
celery -A celery_pro worker -l info
2、 启动任务调度器 celery beat
celery -A celery_pro beat -l info
3、执行效果
看到celery运行日志中每5秒回返回一次 add函数执行结果
3、启动celery的worker:每台机器可以启动8个worker
1、在pythondir目录下启动 /pythondir/celery_pro/ 目录下的worker
celery -A celery_pro.celery worker -i info
celery -A celery_pro worker -l info
2、后台启动worker:/pythondir/celery_pro/目录下执行
celery multi start w1 -A celery_pro -l info #在后台启动w1这个worker
celery multi start w1 w2 -A celery_pro -l info #一次性启动w1,w2两个worker
celery -A celery_pro status #查看当前有哪些worker在运行
celery multi stop w1 w2 -A celery_pro #停止w1,w2两个worker
celery multi restart w1 w2 -A celery_pro #重启w1,w2两个worker