Отправка Spark из приложения, работающего в кластере Mesos DCOS

У меня есть кластер Mesos DCOS, работающий на AWS со Spark, установленным с помощью команды dcos package install spark. Я могу успешно выполнять задания Spark с помощью интерфейса командной строки DCOS: dcos spark run ...

Теперь я хотел бы выполнять задания Spark из контейнера Docker, работающего внутри кластера Mesos, но я не совсем уверен, как добраться до работающего экземпляра spark. Идея заключалась бы в том, чтобы контейнер Docker выполнял команду spark-submit для отправки задания в развертывание Spark вместо выполнения того же задания извне кластера с помощью интерфейса командной строки DCOS.

Текущая документация, по-видимому, сосредоточена только на запуске Spark через интерфейс командной строки DCOS — есть ли способ получить доступ к развертыванию spark из другого приложения, работающего внутри кластера?


person dbernard    schedule 16.08.2016    source источник


Ответы (1)


Демо DCOS IOT попробуйте что-то подобное. https://github.com/amollenkopf/dcos-iot-demo

Эти ребята запускают док-станцию ​​​​Spark и отправку Spark-Submit в приложении-марафоне. Проверьте этот дескриптор Marathon: https://github.com/amollenkopf/dcos-iot-demo/blob/master/spatiotemporal-esri-analytics/rat01.json

person gasparms    schedule 15.09.2016