Я разрабатываю задание Kafka Stream по обогащению журналов. План состоит в том, чтобы использовать кеш файлов в Azure Blob для обогащения записи журнала из Kafka KStream. Насколько я понимаю, мне нужно загрузить файл кеша из Azure Blob в KTable. Тогда я могу присоединиться к KStream с помощью KTable.
Как новичок, я столкнулся с двумя трудностями, может ли кто-нибудь мне подсказать?
Похоже, у Kafka Connect нет библиотеки для подключения к Azure Blob. Нужно ли мне писать еще одно отдельное задание, чтобы всегда читать из Azure и писать обратно в KTable? Есть какой-нибудь быстрый способ?
Кэш обновлялся четыре-пять раз каждый день, и задание должно было обнаружить изменение файла кеша и отразить его в KTable. Означает ли это, что для обнаружения удаления некоторых записей из файла кеша я должен своевременно сравнивать каждую запись между KTable и файлом? Есть более эффективный способ?
Спасибо