Spark с HDFS на входе и Accumulo на выходе

Я собираюсь реализовать систему с использованием HDFS и Accumulo. У меня есть несколько файлов в моей HDFS, и мне нужно обработать их с помощью задания Spark и сохранить в Accumulo. Я не мог найти хороших примеров с помощью Google.

Может ли кто-нибудь привести пример того, как настроить такой рабочий процесс?


person frankie    schedule 13.03.2015    source источник
comment
У меня были проблемы с поиском этого в прошлом. Вот комментарий SO о том, как читать FROM Accumulo, который вы можете изменить для чтения с помощью AccumuloOutputFormat stackoverflow.com/questions/26306711/   -  person FuriousGeorge    schedule 13.03.2015
comment
Спасибо за ваш комментарий   -  person frankie    schedule 13.03.2015