В моем текущем проекте мне нужно получить данные с более чем 700 конечных точек, а затем отправить эти данные еще на более чем 700 конечных точек. Мой подход состоит в том, чтобы использовать Django Celery Redis, поставить более 70 конечных точек на каждого рабочего, чтобы было около 10 рабочих, которые будут извлекать данные, а затем публиковать данные.
Для этого я использую Chord для выполнения параллельной задачи, а затем рассчитываю время, необходимое для этого.
Проблема в том, что Celery выполняет одну и ту же задачу несколько раз. task_get_data
— это основной метод, который сначала получает список веб-сайтов, затем разбивает его на группы по 70 в каждой, а затем вызывает task_post_data
с помощью Chord.
В выводе ниже вы можете увидеть website_A
, website_B
и т. д. несколько раз, я вручную проверил свои данные и все остальное, и нет повторения веб-сайтов, но когда задача сельдерея отправляется, создается несколько записей.
Кроме того, есть ли способ контролировать количество рабочих и что они обрабатывают?
Ниже приведен код
os.environ.setdefault('DJANGO_SETTINGS_MODULE','django_backend.settings')
app = Celery('django_backend', backend='redis://localhost:6379', broker='redis://localhost:6379')
app.config_from_object('django.conf:settings', namespace='CELERY')
# app.config_from_object('django.conf:settings')
app.autodiscover_tasks(lambda: settings.INSTALLED_APPS)
@app.task(bind=True)
def debug_task(self):
print('Request: {0!r}'.format(self.request))
def post_data(json_obj, website):
for items in json_obj:
md = md + items['data']
n = 50
list_of_objects = [md[i:i+n] for i in range(0, len(md), n)]
print("Starting to post data using post__data")
for items in list_of_objects:
data_details = PostDataDetails()
data_details.data = items
post_data_response = ""
try:
post_data_response = client.post_data(post_data_details = data_details)
print("Successfully posted data with status code " + str(post_data_response.status) + " for " + website)
except Exception as e:
return post_data_response.status
def read_from_file():
with open('./django_backend/data.json') as json_file:
data = json.load(json_file)
# print(data)
return data
def split_list(l,n):
website_list = [l[i:i+n] for i in range(0, len(l), n)]
return website_list
#-----------this is the main method---------
@app.task(bind=True, name="task_get_data")
def task_get_data(self):
start_time = datetime.datetime.now()
try:
website = task_helper.get_data()
task_helper.write_logs("info", "Successfully read from cache")
except Exception as e:
task_helper.write_logs("error", "Error in reading from cache. Error" + str(e))
website_list_chunks = split_list(list(website.keys()),70)
callback = get_time_difference.s(start_time)
try:
task_helper.write_logs("info", "Starting the task_post_poller_data task to post data")
header = [task_post_data.s(website_list) for website_list in website_list_chunks]
result = chord(header)(callback)
print(result)
task_helper.write_logs("info", "Successfully completed the task to post data")
except Exception as e:
task_helper.write_logs("error", "Error in creating task_post_data task. Error" + str(e))
@app.task(bind=True, name="task_post_data")
def task_post_data(self,website_list=None) -> dict:
json_object_response = True
post_data_response = None
for website in website_list:
if json_object_response:
file_data = read_from_file()
try:
post_data_response = post_data(file_data, website)
# pass
except Exception as e:
print("error", "Error in creating task_post_poller_data task. Error" + str(e))
return post_data_response
Я запускаю код с помощью команды celery -A django_backend worker -l debug --purge
и отправляю задачу с помощью этой команды.
python manage.py shell
>>>from django_backend.tasks import task_get_data
>>>task_get_data.delay()
Ниже вывод из консоли
[2021-07-20 19:54:54,789: INFO/ForkPoolWorker-3] Successfully posted data with status code 200 for website_D
[2021-07-20 19:54:54,835: INFO/ForkPoolWorker-5] Successfully posted data with status code 200 for website_E
[2021-07-20 19:54:54,840: INFO/ForkPoolWorker-2] Successfully posted data with status code 200 for website_B
[2021-07-20 19:54:54,843: INFO/ForkPoolWorker-1] Successfully posted data with status code 200 for website_A
[2021-07-20 19:54:54,882: INFO/ForkPoolWorker-6] Successfully posted data with status code 200 for website_P
[2021-07-20 19:54:54,891: INFO/ForkPoolWorker-8] Successfully posted data with status code 200 for website_I
[2021-07-20 19:54:54,895: INFO/ForkPoolWorker-4] Successfully posted data with status code 200 for website_R
[2021-07-20 19:54:55,021: INFO/ForkPoolWorker-3] Successfully posted data with status code 200 for website_D
[2021-07-20 19:54:55,025: INFO/ForkPoolWorker-7] Successfully posted data with status code 200 for website_C
[2021-07-20 19:54:55,073: INFO/ForkPoolWorker-2] Successfully posted data with status code 200 for website_B
[2021-07-20 19:54:55,086: INFO/ForkPoolWorker-1] Successfully posted data with status code 200 for website_A