Мне нужно расширить память hdfs с 50 ГБ до 200 ГБ в cloudera. Я использую виртуальную машину со свободным пространством 300 ГБ, но hdfs настроен только на использование 50 ГБ на hdfs. Мой dfs.namenode.name.dir указывает на dfs / nn по умолчанию
<name>dfs.namenode.name.dir</name>
<value>file:///dfs/nn</value>
И мой hdfs dfsadming -report дает мне:
[root@localhost conf.cloudera.hdfs] hdfs dfsadmin -report
Configured Capacity: 55531445863 (51.72 GB)
Present Capacity: 6482358272 (6.04 GB)
DFS Remaining: 3668803584 (3.42 GB)
DFS Used: 2813554688 (2.62 GB)
DFS Used%: 43.40%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
Что я должен делать ? Есть ли верхний предел емкости папки в Redhat (например, 50 ГБ на созданную папку)? Должен ли я добавить новую папку в dfs.namenode.name.dir, и каждая папка добавит 50 ГБ к использованию hdfs?