В настоящее время я пишу процессор ElasticSearch Nifi. Индивидуальные вставки/записи в ES не оптимальны, вместо этого предпочтительнее группировать документы. Что будет считаться оптимальным подходом в процессоре Nifi для отслеживания (пакетной обработки) документов (FlowFiles) и при определенном количестве их пакетной обработки? Что меня больше всего беспокоит, так это то, что если ES недоступен, не работает, сетевой раздел и т. Д., Помешает успешному выполнению пакета. Основной вопрос заключается в том, что у Nifi есть хранилище контента для организации очереди / обратного давления и т. Д. Есть ли предпочтительный метод его использования, чтобы гарантировать, что FlowFiles не будут потеряны, если пункт назначения не работает? Может быть, есть другой процессор, который я должен посмотреть для примера?
Я просмотрел процессор Mongo, Merge и т. д., чтобы попытаться получить представление о предпочтительном подходе к пакетной обработке внутри процессора, но, похоже, не нашел ничего конкретного. Мы ценим любые предложения.
Хороший шанс, что я упускаю из виду некоторые базовые функции, встроенные в Nifi. Я все еще довольно новичок в платформе.
Спасибо!