Работа на Sqoop за прехвърляне на данни от Netezza към HDFS

Имам писмено задание за sqoop за импортиране на данни от таблица в Netezza към HDFS. Заданието е създадено успешно и също така, когато бъде изпълнено, стартира задание за намаляване на картата. Заданието се изпълнява, докато карта 100% намали 0% и се блокира. Заданието никога не завършва и данните изобщо не се прехвърлят. Няма наблюдавана грешка или изключение.

Имам няколко подобни задачи за други таблици от същата база данни. Те се изпълняват правилно и прехвърлят данни. Каква може да е възможната причина за това поведение.

По-долу е дадена конфигурация за sqoop задание във файл с опции.

--direct --connect jdbc:netezza://url/име_на_база_данни --username abcd --password xyz --table table_name --split-by primary_key_column --target-dir hdfs_path -m 8


person Anup    schedule 04.11.2015    source източник
comment
Можете ли да публикувате вашата команда за импортиране на sqoop?   -  person OneCricketeer    schedule 04.11.2015


Отговори (1)


@BasileStarynkevitch: Има други подобни въпроси в StackOverflow, така че не е необичайно, но всички те се отнасят за Mac, а не за Ubuntu.
person Anup    schedule 20.11.2015
comment
Имам същия проблем. Мисля, че това до голяма степен прави опциите --direct безполезни... никога нямаше да разбера дали моите данни имат разделители... и просто щеше да закачи работни места, от които завися. - person joefromct; 26.03.2016
comment
Току-що имах същия проблем, добавянето на --input-escaped-by '\' \ --escaped-by '\' свърши работа като чар - person Brian; 31.03.2016