Я настроил несколько dags, которые в конечном итоге заканчиваются командой spark-submit для искрового кластера. Я использую кластерный режим, если это имеет значение. В любом случае, мой код работает, но я понял, что если задание искры потерпит неудачу, я не обязательно узнаю об этом из пользовательского интерфейса Airflow. Запуская задание в кластерном режиме, Airflow передает задание доступному работнику, поэтому airflow ничего не знает о задании Spark.
Как я могу решить эту проблему?