Как смонтировать определенную папку hadoop через шлюз NFS

Я пытаюсь настроить шлюз NFS для своего кластера hadoop, выполнив шаги, упомянутые в этом красивом руководство. Я выполнил шаги здесь. Я могу смонтировать /, используя команду, указанную в документе:

mount -t nfs -o vers=3,proto=tcp,nolock $server:/ $mount_point

Но я хочу смонтировать папку, присутствующую в моей HDFS, вот так:

mount -t nfs -o vers=3,proto=tcp,nolock $server:/$dir $mount_point

Но это дает следующую ошибку из команды монтирования:

mount.nfs: установка 10.33.37.220:/dir не удалась, причина указана сервером:

Данный файл или каталог отсутствует

а в шлюзе NFS появляется следующий журнал:

18/04/05 15:14:43 ИНФОРМАЦИЯ mount.RpcProgramMountd: Путь / каталог не является общим.

Я также пытаюсь добавить следующую строку в /etc/exports

saurabh@0001:~$ cat /etc/exports
/whatsappData 10.0.0.0/24(rw,sync)

Как это может быть сделано.


person Saurabh    schedule 05.04.2018    source источник


Ответы (1)


Из документации Hadoop, Я обнаружил, что есть одна точка экспорта конфигурации: nfs.export.point

Это может указать точку экспорта NFS HDFS. Поддерживается ровно одна точка экспорта. При настройке точки экспорта требуется полный путь. По умолчанию точкой экспорта является корневой каталог /.

Таким образом, установка следующего решения решила мою проблему:

<property>
  <name>nfs.export.point</name>
  <value>/dir</value>
</property>
person Saurabh    schedule 05.04.2018