• django集成celery


    Celery是一个基于分布式消息传递的开源异步任务队列,在django实际应用场景下,往往有一些较为耗时,但并不需要返回值的任务,

    例如发送邮件,更新我们自己的统计数据库,这时我们可以将这些任务交由celery管理,以加快网页返回。

    本文重点来讲解django+redis+celery的配置,为什么这么配置自行google,例如absolute_import的用处等,另外也可查看官方给出的django-celery配置实例

    django项目布局如下:

      proj              
        ├── proj             
        │   ├── __init__.py
        │   ├── settings.py
        │   ├── urls.py          
        │   └── wsgi.py        
        └── manage.py 
    

    1.  新建proj/proj/celery.py文件

    import os
    from celery import Celery
    from django.conf import settings
    
    # set the default Django settings module for the 'celery' program.
    os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'proj.settings')
    
    app = Celery('proj')
    
    # Using a string here means the worker will not have to
    # pickle the object when using Windows.
    app.config_from_object('django.conf:settings')
    app.autodiscover_tasks(lambda: settings.INSTALLED_APPS)
    
    
    @app.task(bind=True)
    def debug_task(self):
        print('Request: {0!r}'.format(self.request))
    

      

    2.  在proj/proj/__init__.py 模块中导入这个 Celery 实例,以确保当 Django 启动时可以加载这个 app

    并且 @shared_task 装饰器也能使用。

    from .celery import app as celery_app
    
    __all__ = ['celery_app']
    

      

    3. settings.py配置

    # celery settings
    # Broker
    BROKER_URL = 'redis://127.0.0.1:6379/1'
    # Result
    # CELERY_RESULT_BACKEND = 'redis://127.0.0.1:6379/1'
    
    CELERY_ACCEPT_CONTENT = ['json']
    CELERY_TASK_SERIALIZER = 'json'
    CELERY_RESULT_SERIALIZER = 'json'
    

      

    4. 在各app下创建tasks.py文件,注意此处只能以tasks命名

    from celery import shared_task
    
    
    @shared_task
    def add(x, y):
        return x + y
    
    # pv uv 统计案例
    from django.db.models import F # 获取源数据
    
    from .models import Post
    
    @app.task
    def increase_pv(post_id):
        return Post.objects.filter(id=post_id).update(pv=F('pv')+1)
    

      

    5. views.py中引入即可

    from .tasks import add
    
    
    add.delay(*args)  

    6. 启动Worker

    在django项目根路径下,键入

    $ celery worker -A proj -l info

    -------------------------------------

    bug 记录,真实环境centos部署没有问题。

    环境 win10,celery==4.3.0,redis==3.2.1(celery版本要求redis>3.2.0)

    启动worker成功,但执行异步任务失败

    报ValueError: not enough values to unpack (expected 3, got 0)

    解决方式

    $ pip install eventlet
    
    $celery worker -A proj -l info -P eventlet
    
  • 相关阅读:
    spark学习进度03(入门案例、sparkshell本地文件读取,hdfs读取、本地运行、提交运行)
    spark学习进度02(集群搭建——第一个案例)
    spark学习进度01(安装环境搭建集群搭建)
    03 | 系统设计目标(一):如何提升系统性能?
    02 | 架构分层:我们为什么一定要这么做?
    01 | 高并发系统:它的通用设计方法是什么?
    24 | MySQL是怎么保证主备一致的?
    23 | MySQL是怎么保证数据不丢的?
    20 | 幻读是什么,幻读有什么问题?
    哇呀呀呀
  • 原文地址:https://www.cnblogs.com/zenan/p/10689567.html
Copyright © 2020-2023  润新知