Я использую приложения-функции Azure (Python) с триггером большого двоичного объекта для обработки CSV и перемещения записей в концентратор событий. У меня есть рабочий код (до 50 строк) после стандартной документации. Однако я хочу знать, какой подход следует использовать, если размер файла составляет несколько ГБ. Будет ли весь этот файл отправлен в функцию Azure за один раз? Что, если его нужно читать фрагментами фиксированного размера или построчно, будет ли это поддерживать концепция триггера в Azure?
Я ищу любой подход / код для указанной выше проблемы в python, который позволяет избежать загрузки полного файла в память контейнера функций Azure.