Вопросы по теме 'hortonworks-data-platform'

Подключение к HDP 2.0 (Hortonworks Hadoop) с помощью клиента пряжи
Я скачал и запустил HDP 2.0 в VirtualBox, а затем попытался подключиться с Java с помощью YarnClient. YarnClient client = YarnClient.createYarnClient(); client.init(new Configuration()); client.start();...
1325 просмотров
schedule 12.11.2022

Запуск Yarn в управляемом режиме
Я пытаюсь запустить приложение simple-yarn по адресу https://github.com/hortonworks/simple-yarn-app в управляемом режиме. Я скопировал банку с локального на hdfs, например $ hadoop fs -copyFromLocal simple-yarn-app-1.0-SNAPSHOT.jar...
288 просмотров

Настройка окружения. переменная HADOOP_STREAMING для RStudio
Я установил RStudio 3.1 на Horton Hadoop. В настоящее время моя переменная среды Hadoop Streaming установлена ​​с использованием этого пути export HADOOP_STREAMING=/usr/lib/hadoop-mapreduce/hadoop-streaming.jar Я получаю сообщение об ошибке при...
1347 просмотров

Установка Ambari 1.7 не может зарегистрировать хост - запись хоста не существует в базе данных
Я пытаюсь установить HDP 2.2 через Ambari 1.7 на узле Centos 6.5. Я должен признать, что инструкции по установке немного запутаны, но я считаю, что сделал все необходимые шаги, чтобы мастер установки Ambari заработал. Настройка сервера Ambari...
2895 просмотров

Использование Pig в песочнице Hortonworks
Я пытался использовать CurrentTime() в песочнице, предоставленной Hortonworks, и не могу заставить ее работать. Это все, что у меня есть в скрипте Pig: <code> REGISTER zookeeper.jar REGISTER piggybank.jar REGISTER...
2251 просмотров

Рабочий процесс Oozie с действием Hive завершился неудачно, возникла проблема с разрешением
У нас есть кластер Hadoop, на котором работает HDP 2.2.0.0. У нас есть еще один кластер Hadoop, на котором работает HDP 2.2.4.2. У нас есть рабочий процесс Oozie с действием Hive, который отлично работает в первом кластере с HDP 2.2.0.0. Но...
582 просмотров

Проблема с доступом к Hive JDBC через Knox и настройкой Hive в Ranger
У нас есть кластер HDP-2.2 с настроенным FreeIPA. Но когда мы пытаемся получить доступ к hive jdbc через knox, мы сталкиваемся с проблемой. Ниже приведен URI JDBC, который мы используем:...
1270 просмотров

интеграция hbase с pyspark
Я пытаюсь получить доступ к hbase из pyspark в HDP 2.3. Сейчас я просто пытаюсь выполнить пример программы, указанный в каталоге spark, с помощью следующей команды: spark-submit --driver-class-path...
1358 просмотров

Ambari — выполнить скрипт при добавлении узла в кластер
Можно ли (и как) указать где-нибудь сценарий оболочки, который будет выполняться каждый раз, когда новый узел добавляется в кластер Ambari? Для этого я использую HDP Ambari, и я хотел бы добавить некоторые символические ссылки, когда установка...
102 просмотров
schedule 11.10.2022

Перестроить Accumulo после того, как сбой namenode повредит корневой блок
в нашем разрабатываемом кластере HDP произошло отключение питания, которое повредило некоторые системные блоки HDFS, используемые Accumulo, теперь кластер находится в безопасном режиме, и ambari не перезапускается. Будучи коробкой DEV, HDFS имеет...
157 просмотров

Как сохранить потоковые данные из локального кластера Hadoop в AWS S3
Мы запускаем приложение для потоковой передачи в реальном времени на Hortonworks, используя Kafka и Spark Streaming в локальной настройке кластера. У нас есть требование, когда нам нужно передать некоторые данные, инициированные событием, из Spark...
140 просмотров

Ограничение Spark SQL
Env: искра 1.6 с использованием Hadoop. Платформа данных Hortonworks 2.5 У меня есть таблица с 10 миллиардами записей, и я хотел бы получить 300 миллионов записей и переместить их во временную таблицу. sqlContext.sql("select ....from my_table...
12517 просмотров

как выполняется запрос улья в HADoop
Мне нужно знать, как выполняется запрос куста в распределенной системе, такой как Hadoop. Я проверил другие вопросы, но ни один из них не объяснил подробно. Ищу полный процесс исполнения. Я хочу знать, почему запросы на соединение улья занимают...
3196 просмотров

добавочный импорт из задания sqoop через oozie не обновляет incremental.last.value в хранилище метаданных sqoop
Пытаясь выполнить добавочный импорт из mysql в куст путем создания задания sqoop, он отлично работает из командной строки, но когда я пытаюсь сделать то же самое с oozie, он не обновляет incremental.last.value в хранилище метаданных sqoop.
339 просмотров

Запустить java-программу из nifi с параметрами
Я хочу взять некоторые термины из базы данных cassandra, а затем отправить их в качестве параметра в java-программу, которая выведет некоторые данные, которые мне нужно будет сохранить в базе данных cassandra. Возможно ли это с nifi, если да, то...
2736 просмотров

Установите параметр Zookeeper Node (znode) в клиенте HappyBase HBase.
Я хочу подключиться к защищенной базе данных Kerberos HBase через HappyBase (python). Соединение работало для другого незащищенного кластера со следующими настройками: import happybase connection = happybase.Connection("host1.domain.de",...
708 просмотров

Пример использования модели базы данных Sentry
У Sentry есть две модели. Одна — это модель на основе файлов, а вторая — модель базы данных. В настоящее время у меня есть сопоставление групп-> роли-> разрешений в файле глобальной политики, как показано ниже: [groups] mapr = admin_role analysts...
276 просмотров

Вычислить процент в логическом столбце
Предполагая, что мои данные имеют следующую структуру: Year | Location | New_client 2018 | Paris | true 2018 | Paris | true 2018 | Paris | false 2018 | London | true 2018 | Madrid | true 2018 |...
564 просмотров

Как динамически читать значения из файла для свойства в updateAttribute?
Я добавил некоторые пользовательские свойства в процессор updateAttribute с помощью кнопки «+». Например: я объявил свойство 'DBConnectionURL' и дал значение как 'jdbc:mysql://localhost:3306/test'. Затем в контроллере службы «DBCPConnectionPool» я...
1458 просмотров

shc-core: NoSuchMethodError org.apache.hadoop.hbase.client.Put.addColumn
Я пытаюсь использовать shc-core для сохранения фрейма данных spark в hbase через spark. Мои версии: hbase: 1.1.2.2.6.4.0-91 искра: 1,6 скала: 2.10 шк: 1.1.1-1.6-s_2.10 hdp: 2.6.4.0-91 Конфигурация выглядит так: val schema_array...
351 просмотров