Celery框架

2023-06-03 00:03:53 來源:博客園

打印 放大 縮小

Celery框架

1. 什么是celery

celery是一個簡答, 靈活且可靠的, 處理大量消息的分布式系統, 專注于實時處理的異步任務隊列, 同時也支持任務調度.

這里面提到了一個概念: 分布式系統

一個系統應用(網站), 會有相關組件(web服務器, web應用, 數據庫, 消息中間件), 將它們架構在不同的服務器上, 不同的服務器的不同組件之間通過消息通信的方式來實現協調工作, 這種模式叫分布式系統優點: 實現負載均衡, 避免單點故障

Celery的架構存在三部分組成, 消息中間件(message broker), 任務執行單元(worker)和任務結果儲存(task result store)組成.


(資料圖片)

  • 消息中間件

Celery本身不提供消息服務, 但是可以方便的和第三方提供的消息中間件集成, 包括RabbitMQ, Redis

  • 任務執行單元

Worker是Celery提供的任務執行的單元, worker并發的運行在分布式的系統節點中.

  • 任務結果儲存

Task result store用來儲存Worker執行的任務的結果, Celery支持以不同的方式儲存任務的結果, 包括AMQP, Redis

celery具有以下優點

Simple(簡單)Celery 使用和維護都非常簡單,并且不需要配置文件。Highly Available(高可用)woker和client會在網絡連接丟失或者失敗時,自動進行重試。并且有的brokers 也支持“雙主”或者“主/從”的方式實現高可用。Fast(快速)單個的Celery進程每分鐘可以處理百萬級的任務,并且只需要毫秒級的往返延遲(使用 RabbitMQ, librabbitmq, 和優化設置時)Flexible(靈活)Celery幾乎每個部分都可以擴展使用,自定義池實現、序列化、壓縮方案、日志記錄、調度器、消費者、生產者、broker傳輸等等。

另外, Celery還支持不同的并發和序列化的手段

  • 并發:Prefork, Eventlet, gevent, threads/single threaded
  • 序列化:pickle, json, yaml, msgpack. zlib, bzip2 compression, Cryptographic message signing 等等

2. celery使用場景

celery是一個強大的 分布式任務隊列的異步處理框架,它可以讓任務的執行完全脫離主程序,甚至可以被分配到其他主機上運行。我們通常使用它來實現異步任務(async task)和定時任務(crontab)。

異步任務:將耗時操作任務提交給Celery去異步執行,比如發送短信/郵件、消息推送、音視頻處理等等

定時任務:定時執行某件事情,比如每天數據統計

3. Celery執行異步任務

執行流程:

  1. 任務定義:首先,需要定義 Celery 任務。任務可以是 Python 函數或類的方法,用 @task裝飾器進行修飾。任務定義了要執行的具體操作。
  2. 任務發布:任務的發布者(生產者)使用 Celery 提供的客戶端接口,將任務發送到任務隊列中(例如 RabbitMQ 或 Redis)
  3. 任務調度:任務隊列中的任務被 Celery 的worker(消費者)獲取并執行。worker可以在同一臺或多臺機器上運行,構成一個分布式任務執行的集群。
  4. 任務執行:一旦worker獲取到任務,它會根據任務的定義,調用相應的函數或方法執行具體的操作。任務可以是同步的或異步的,取決于任務定義中是否使用了異步執行的修飾器。
  5. 任務結果:任務執行完成后,worker將執行結果返回給消息代理,并將結果存儲在結果后端(例如數據庫、緩存或消息隊列)中,以供后續查詢。

3.1 基本使用

celery_task.py

# -*- encoding:utf-8 -*-# @time: 2023/5/25 17:06# @author: ifengimport celeryimport timebackend = "redis://:123456@127.0.0.1:6379/1"  # 配置任務結果儲存位置broker = "redis://:123456@127.0.0.1:6379/2"  # 配置消息中間件cel = celery.Celery("test", backend=backend, broker=broker)@cel.taskdef send_email(name):    print("向%s發送郵件" % name)    time.sleep(5)    print("向%s發送郵件完成" % name)    return "%s, 發送完畢" % name@cel.taskdef send_msg(name):    print("向%s發送信息" % name)    time.sleep(5)    print("向%s發送信息完畢" % name)    return "%s, 發送完畢" % name

produce_task.py

# -*- encoding:utf-8 -*-# @time: 2023/5/25 17:21# @author: ifengfrom celery_task import send_email, send_msgresult = send_email.delay("ifeng")  # send_taskprint(result.id)# print(result.get())  # 獲取返回值result = send_msg.delay("ifeng")print(result.id)

result.py

# -*- encoding:utf-8 -*-# @time: 2023/5/25 20:04# @author: ifengfrom celery.result import AsyncResultfrom celery_task import celasync_result = AsyncResult(id="75ff05e6-912a-44f4-a481-eb5bff411488", app=cel)if async_result.successful():    result = async_result.get()    print(result)    # result.forget() # 將結果刪除elif async_result.failed():    print("執行失敗")elif async_result.status == "PENDING":    print("任務等待中被執行")elif async_result.status == "RETRY":    print("任務異常后正在重試")elif async_result.status == "STARTED":    print("任務已經開始被執行")

開啟work: celery worker -A celery_task -l info -P eventlet

3.2 多任務結構

注意創建文件夾的時候要創建python package, 否則會出現導報不成功

celery.py

# -*- encoding:utf-8 -*-# @time: 2023/5/25 20:24# @author: ifengfrom celery import Celerycel = Celery("celery_demo",             broker="redis://:123456@127.0.0.1:6379/1",             backend="redis://:123456@127.0.0.1:6379/2",             # 包含以下兩個任務文件,去相應的py文件中找任務,對多個任務做分類             include=["celery_task.task01",                      "celery_task.task02"                      ])# 時區cel.conf.timezone = "Asia/Shanghai"# 是否使用UTCcel.conf.enable_utc = False

task01.py

# -*- encoding:utf-8 -*-# @time: 2023/5/25 20:25# @author: ifengimport timefrom .celery import cel@cel.taskdef send_email(res):    time.sleep(5)    return "完成向%s發送郵件任務" % res

task02.py

# -*- encoding:utf-8 -*-# @time: 2023/5/25 20:25# @author: ifengimport timefrom .celery import cel@cel.taskdef send_msg(name):    time.sleep(5)    return "完成向%s發送短信任務" % name

produce_task.py

# -*- encoding:utf-8 -*-# @time: 2023/5/25 20:28# @author: ifengfrom celery_task.task01 import send_emailfrom celery_task.task02 import send_msgresult = send_email.delay("ifeng")print(result.id)result = send_msg.delay("ifeng")print(result.id)

result.py

# -*- encoding:utf-8 -*-# @time: 2023/5/25 20:30# @author: ifengfrom celery.result import AsyncResultfrom celery_task.celery import celasync_result = AsyncResult(id="90e941e4-97e0-4c53-8609-91fb8a91768e", app=cel)if async_result.successful():    result = async_result.get()    print(result)    # result.forget() # 將結果刪除,執行完成,結果不會自動刪除    # async.revoke(terminate=True)  # 無論現在是什么時候,都要終止    # async.revoke(terminate=False) # 如果任務還沒有開始執行呢,那么就可以終止。elif async_result.failed():    print("執行失敗")elif async_result.status == "PENDING":    print("任務等待中被執行")elif async_result.status == "RETRY":    print("任務異常后正在重試")elif async_result.status == "STARTED":    print("任務已經開始被執行")

開啟work:celery worker -A celery_task -l info -P eventlet,添加任務(執行produce_task.py),檢查任務執行結果(執行check_result.py)

4.celery執行定時任務

4.1 簡單結構實現定時任務

produce_task.py

from celery_task import send_emailfrom datetime import datetime# 方式一# v1 = datetime(2020, 3, 11, 16, 19, 00)# print(v1)# v2 = datetime.utcfromtimestamp(v1.timestamp())# print(v2)# result = send_email.apply_async(args=["egon",], eta=v2)# print(result.id)# 方式二ctime = datetime.now()# 默認用utc時間utc_ctime = datetime.utcfromtimestamp(ctime.timestamp())from datetime import timedeltatime_delay = timedelta(seconds=10)task_time = utc_ctime + time_delay# 使用apply_async并設定時間result = send_email.apply_async(args=["egon"], eta=task_time)print(result.id)

4.2 多目錄結構實現定時任務

celery.py

from datetime import timedeltafrom celery import Celeryfrom celery.schedules import crontabcel = Celery("tasks", broker="redis://127.0.0.1:6379/1", backend="redis://127.0.0.1:6379/2", include=[    "celery_tasks.task01",    "celery_tasks.task02",])cel.conf.timezone = "Asia/Shanghai"cel.conf.enable_utc = Falsecel.conf.beat_schedule = {    # 名字隨意命名    "add-every-10-seconds": {        # 執行tasks1下的test_celery函數        "task": "celery_tasks.task01.send_email",        # 每隔2秒執行一次        # "schedule": 1.0,        # "schedule": crontab(minute="*/1"),        "schedule": timedelta(seconds=6),  # 間隔時間        # 傳遞參數        "args": ("張三",)  # 相關參數    },    # "add-every-12-seconds": {    #     "task": "celery_tasks.task01.send_email",    #     每年4月11號,8點42分執行    #     "schedule": crontab(minute=42, hour=8, day_of_month=11, month_of_year=4),    #     "args": ("張三",)    # },}
# 啟動 Beat 程序$ celery beat -A proj
# Celery Beat進程會讀取配置文件的內容,周期性的將配置中到期需要執行的任務發送給任務隊列# 如果這個沒有關會導致歷史遺留問題, 導致儲存多個任務在redis的List中, 這個需要關注
# 之后啟動 worker 進程.$ celery -A proj worker -l info 或者$ celery -B -A proj worker -l info

5.django中使用celery

項目根目錄創建celery包,目錄結構如下:

mycelery/├── config.py├── __init__.py├── main.py└── sms/    ├── __init__.py    ├── tasks.py

配置文件config.py:

broker_url = "redis://127.0.0.1:6379/15"result_backend = "redis://127.0.0.1:6379/14"

任務文件tasks.py

# celery的任務必須寫在tasks.py的文件中,別的文件名稱不識別!!!from mycelerys.main import appimport timeimport logginglog = logging.getLogger("django")@app.task  # name表示設置任務的名稱,如果不填寫,則默認使用函數名做為任務名def send_sms(mobile):    """發送短信"""    print("向手機號%s發送短信成功!"%mobile)    time.sleep(5)    return "send_sms OK"@app.task  # name表示設置任務的名稱,如果不填寫,則默認使用函數名做為任務名def send_sms2(mobile):    print("向手機號%s發送短信成功!" % mobile)    time.sleep(5)    return "send_sms2 OK"

最后在main.py主程序中對django的配置文件進行加載

# 主程序import osfrom celery import Celery# 創建celery實例對象app = Celery("sms")# 把celery和django進行組合,識別和加載django的配置文件os.environ.setdefault("DJANGO_SETTINGS_MODULE", "celeryPros.settings.dev")# 通過app對象加載配置app.config_from_object("mycelerys.config")# 加載任務# 參數必須必須是一個列表,里面的每一個任務都是任務的路徑名稱# app.autodiscover_tasks(["任務1","任務2"])app.autodiscover_tasks(["mycelerys.sms",])# 啟動Celery的命令# 強烈建議切換目錄到mycelery根目錄下啟動# celery -A mycelery.main worker --loglevel=info

Django視圖調用:

from django.shortcuts import render# Create your views here.from django.shortcuts import render,HttpResponsefrom mycelerys.sms.tasks import send_sms,send_sms2from datetime import timedeltafrom datetime import datetimedef test(request):    ################################# 異步任務    # 1. 聲明一個和celery一模一樣的任務函數,但是我們可以導包來解決    # send_sms.delay("110")    # send_sms2.delay("119")    # send_sms.delay() 如果調用的任務函數沒有參數,則不需要填寫任何內容    ################################# 定時任務    # ctime = datetime.now()    # # 默認用utc時間    # utc_ctime = datetime.utcfromtimestamp(ctime.timestamp())    # time_delay = timedelta(seconds=10)    # task_time = utc_ctime + time_delay    # result = send_sms.apply_async(["911", ], eta=task_time)    # print(result.id)    return HttpResponse("ok")

6.Celery作為第三方模塊集成到項目中

首先看一下目錄結構

luffycityapi/           # 服務端項目根目錄└── luffycityapi/       # 主應用目錄    ├── apps/           # 子應用存儲目錄      ├   └── users/            # django的子應用    ├       └── tasks.py      # [新增]分散在各個子應用下的異步任務模塊    ├── settings/     # [修改]django的配置文件存儲目錄[celery的配置信息填寫在django配置中即可]    ├── __init__.py   # [修改]設置當前包目錄下允許外界調用celery應用實例對象    └── celery.py     # [新增]celery入口程序,相當于上一種用法的main.py

6.1 具體執行流程

  1. 創建celery.py文件, 定義celery框架, 會幫集成監聽消息功能
  2. 在dev.py配置文件中新增相關配置信息
  3. 在app中創建任務tasks
  4. 在app的視圖函數的api向隊列(redis,rabbitmq)中推送信息
  5. 消費者從隊列中獲取消息并扔給worker, worker可以在不同服務器上, 構成一個分布式集群

6.2 代碼部分

luffycityapi/celery.py, 主應用目錄下創建celery入口程序, 創建celery對象并加載配置和異步任務

import osfrom celery import Celery# 必須在實例化celery應用對象之前執行os.environ.setdefault("DJANGO_SETTINGS_MODULE", "luffycityapi.settings.dev")# 實例化celery對象app = Celery("luffycityapi")# 指定任務的隊列名稱app.conf.task_default_queue = "Celery"# 也可以把配置寫在django的項目配置中app.config_from_object("django.conf:settings", namespace="CELERY")  # 設置django中配置信息以 "CELERY_"開頭為celery的配置信息# 自動根據配置查找django的所有子應用下的tasks任務文件app.autodiscover_tasks()

settings/dev.py, 新增celery配置信息, 代碼

# Celery異步任務隊列框架的配置項[注意:django的配置項必須大寫,所以這里的所有配置項必須全部大寫]# 任務隊列CELERY_BROKER_URL = "redis://@127.0.0.1:6379/14"# 結果隊列CELERY_RESULT_BACKEND = "redis://@127.0.0.1:6379/15"# 時區,與django的時區同步CELERY_TIMEZONE = TIME_ZONE# 防止死鎖CELERY_FORCE_EXECV = True# 設置并發的worker數量CELERYD_CONCURRENCY = 200# 設置失敗允許重試[這個慎用,如果失敗任務無法再次執行成功,會產生指數級別的失敗記錄]CELERY_ACKS_LATE = True# 每個worker工作進程最多執行500個任務被銷毀,可以防止內存泄漏,500是舉例,根據自己的服務器的性能可以調整數值CELERYD_MAX_TASKS_PER_CHILD = 500# 單個任務的最大運行時間,超時會被殺死[慎用,有大文件操作、長時間上傳、下載任務時,需要關閉這個選項,或者設置更長時間]CELERYD_TIME_LIMIT = 10 * 60# 任務發出后,經過一段時間還未收到acknowledge, 就將任務重新交給其他worker執行CELERY_DISABLE_RATE_LIMITS = True# celery的任務結果內容格式CELERY_ACCEPT_CONTENT = ["json", "pickle"]# 之前定時任務(定時一次調用),使用了apply_async({}, countdown=30);# 設置定時任務(定時多次調用)的調用列表,需要單獨運行SCHEDULE命令才能讓celery執行定時任務:celery -A mycelery.main beat,當然worker還是要啟動的# https://docs.celeryproject.org/en/stable/userguide/periodic-tasks.htmlfrom celery.schedules import crontabCELERY_BEAT_SCHEDULE = {    "user-add": {  # 定時任務的注冊標記符[必須唯一的]        "task": "delayed_task",   # 定時任務的任務名稱        "schedule": 10,  # 定時任務的調用時間,10表示每隔10秒調用一次add任務        # "schedule": crontab(hour=7, minute=30, day_of_week=1),,  # 定時任務的調用時間,每周一早上7點30分調用一次add任務    }}

luffycityapi/__init__.py, 主應用下初始化,

import pymysqlfrom .celery import app as celery_apppymysql.install_as_MySQLdb()__all__ = ["celery_app"]

users/tasks.py, 創建任務列表

from celery import shared_taskfrom luffycityapi.utils.ronglianyunapi import sms_send# 記錄日志import logginglogging.getLogger("django")@shared_task(name="send_sms")def send_sms(tid, mobile, datas):    try:        return sms_send(tid, mobile, datas)    except Exception as e:        logging.error(f"手機號:{mobile},發送短信失敗錯誤: {e}")@shared_task(name="delayed_task")def delayed_task():    logging.info(f"延時消息發送成功啦!!!")    return "delayed_task 執行完畢"

此時在django中用戶發送短信, 就可以改成異步發送短信了

user/views.py, 視圖中調用異步發送短信的任務

from .tasks import send_smssend_sms.delay(settings.RONGLIANYUN.get("reg_tid"),mobile, datas=(code, time // 60))

6.3 啟動celery

cd ~/Desktop/luffycity/luffycityapi# 1. 普通運行模式,關閉終端以后,celery就會停止運行celery -A luffycityapi worker  -l INFO# 2. 啟動多worker進程模式,以守護進程的方式運行,不需要在意終端。但是這種運行模型,一旦停止,需要手動啟動。celery multi start worker -A luffycityapi -E --pidfile="/home/ifeng/Desktop/luffycity/luffycityapi/logs/worker1.pid" --logfile="/home/ifeng/Desktop/luffycity/luffycityapi/logs/celery.log" -l info -n worker1# 3. 啟動多worker進程模式celery multi stop worker -A luffycityapi --pidfile="/home/ifeng/Desktop/luffycity/luffycityapi/logs/worker1.pid"

6.4 補充

也可以在django終端下調用celery

$ python manage.py shell>>> from users.tasks import delayed_task>>> res = delayed_task.delay()>>> res = delayed_task.apply_async(countdown=15)>>> res.id"893c31ab-e32f-44ee-a321-8b07e9483063">>> res.state"SUCCESS">>> res.result

定時任務的調用器啟動, 可以在運行了worker以后, 使用一下命令:

cd ~/Desktop/luffycity/luffycityapicelery -A luffycityapi beat

定時任務執行結果展示(十秒執行一次):

[2023-06-02 21:17:18,144: INFO/ForkPoolWorker-3] 延時消息發送成功啦!!![2023-06-02 21:17:18,147: INFO/ForkPoolWorker-3] Task delayed_task[3a1033fe-b1a2-4f7f-9fe6-61d1ef9816ab] succeeded in 0.0034034299997074413s: "delayed_task 執行完畢"[2023-06-02 21:17:28,140: INFO/MainProcess] Task delayed_task[905f3644-297a-430a-ae23-75be7e3a2ad3] received[2023-06-02 21:17:28,142: INFO/ForkPoolWorker-3] 延時消息發送成功啦!!![2023-06-02 21:17:28,143: INFO/ForkPoolWorker-3] Task delayed_task[905f3644-297a-430a-ae23-75be7e3a2ad3] succeeded in 0.0014366229997904156s: "delayed_task 執行完畢"[2023-06-02 21:17:38,140: INFO/MainProcess] Task delayed_task[c1962489-e615-4e6d-a5b0-171826d1b56e] received[2023-06-02 21:17:38,141: INFO/ForkPoolWorker-3] 延時消息發送成功啦!!![2023-06-02 21:17:38,143: INFO/ForkPoolWorker-3] Task delayed_task[c1962489-e615-4e6d-a5b0-171826d1b56e] succeeded in 0.0013498770003934624s: "delayed_task 執行完畢"
關鍵詞:

責任編輯:ERM523

相關閱讀

主站蜘蛛池模板: 天天澡天天摸天天爽免费| 亚洲综合色丁香婷婷六月图片| 亚洲欧美成人一区二区在线电影| 毛片手机在线观看| 日日碰狠狠添天天爽爽爽| 伊人色综合九久久天天蜜桃| 日本福利视频导航| 成人在线免费网站| 亚洲国产欧美日韩一区二区三区 | 成人片黄网站A毛片免费| 亚洲日韩小电影在线观看| 草莓污视频在线观看午夜社区| 最近中文字幕无吗高清免费视频| 又黄又爽又色的视频在线看| 91制片厂制作果冻传媒168| 日批视频在线免费看| 亚洲AV最新在线观看网址| xxxx性开放xxxx| 色噜噜狠狠狠综合曰曰曰| 国产高清小视频| 中文精品久久久久人妻不卡| 欧美第一页草草影院浮力| 国产亚洲婷婷香蕉久久精品| 99久久国产综合精品麻豆| 日本一道本高清免费| 亚洲欧美成人一区二区三区| 男人黄女人色视频在线观看| 国产大陆亚洲精品国产| AAAA级少妇高潮大片在线观看| 日本福利一区二区| 亚洲欧美另类综合日韩| 美女扒开尿口直播| 国产毛片在线看| a级毛片无码免费真人| 日本电影100禁| 亚洲欧美日韩国产vr在线观| 狼人久蕉在线播放| 国产一区在线看| 1000部拍拍拍18勿入免费视频下载 | 日本一区二区视频| 久久婷婷香蕉热狠狠综合|