Введение в Hadoop fs Commands

В этой статье мы рассмотрим команды обработки файлов HADOOP, который используется для управления файлами через консоль.

Вам понадобится система Linux и последняя версия Hadoop. Чтобы напечатать версию Hadoop, чтобы узнать, кем был выпущен релиз, нужно ввести значение контрольной суммы, нам просто нужно выполнить приведенную ниже команду после входа в платформу Hadoop.

Команда: версия Hadoop

Команды Hadoop fs

Теперь давайте узнаем, как использовать команды HADOOP fs.

Начнем с основ. Просто введите эти команды в PUTTY или любой консоли, с которой вам удобно.

1. hadoop fs -ls

Для каталога он возвращает список файлов и каталогов, тогда как для файла он возвращает статистику по файлу.

hadoop fs -lsr: это для рекурсивного перечисления каталогов и файлов в определенных папках.

  • Пример : hadoop fs -ls / или hadoop fs -lsr
Примечание : hadoop fs -ls (-d) (-h) (-R)
  • -d: используется для вывода каталогов в виде простых файлов.
  • -h: Используется для форматирования размеров файлов в удобочитаемом виде, а не только в количестве байтов.
  • -R: это используется для рекурсивного перечисления содержимого каталогов.
2. hadoop fs -mkdir

Эта команда принимает путь в качестве аргумента и создает каталоги в формате hdf.

  • Пример : hadoop fs -mkdir / user / datahub1 / data
Примечание. Если мы попытаемся создать подкаталоги, родительский каталог должен существовать. Если это условие не выполняется, появится сообщение «Нет такого файла или каталога».
3. hadoop fs -touchz

Создает пустой файл и не использует места

  • Пример: hadoop fs -touchz URI
4. hadoop fs -rm

Удалить файлы, указанные в качестве аргумента. Мы должны указать опцию -r, чтобы удалить весь каталог. И если указана опция -skipTrash, она пропустит корзину и файл будет немедленно удален.

  • Пример : hadoop fs -rm -r /user/test1/abc.text
5. hadoopfs -rmdir

Он удаляет файлы и разрешения каталогов и подкаталогов. По сути это расширенная версия Hadoop fs -rm.

6. hadoop fs -cp

Копирует файл из одного места в другое

  • Пример : hadoop fs -cp /user/data/abc.csv / user / datahub
7. hadoop fs -copyFromLocal

Копирует файл из edgenode в HDFS.

8. hadoop fs -put

Он копирует файл из edgenode в HDFS, он аналогичен предыдущей команде, но помещает также читает ввод из стандартного ввода stdin и записывает в HDFS

  • Пример : hadoop fs -put abc.csv / user / data
Примечание :
hadoop fs -put -p: флаг сохраняет доступ, время модификации, владельца и режим.
hadoop fs -put -f: эта команда перезаписывает место назначения, если файл уже существует до копирования.
9. hadoop fs -moveFromLocal

Это похоже на локальное копирование, за исключением того, что исходный файл удаляется из локального edgenode после его копирования в HDFS.

  • Пример : fs -moveFromLocal abc.text / user / data / acb.
10. hadoop fs -copyToLocal

Копирует файл из HDFS в edgenode.

  • Пример : fs -copyToLocal abc.text / localpath
11. hadoop fs -chmod

Эта команда помогает нам изменить доступ к файлу или каталогу

  • Пример : hadoop fs -chmod (-R) (путь)
12. hadoop fs -chown

Эта команда помогает нам изменить владельца файла или каталога

  • Пример : hadoop fs -chown (-R) (OWNER) (:( GROUP)) PATH
13. hadoop fs -cat

Он печатает содержимое файла HDFS на терминале

  • Пример : hadoop fs -cat /user/data/abc.csv
14. hadoop fs -tail

Он отображает последний килобайт файла HDFS на стандартный вывод

  • Пример : hadoop fs -tail / in / xyzfile
15. hadoop fs -test

Эта команда используется для операций тестирования файлов HDFS, она возвращает 0, если истина.

  • - e: проверяет, существует ли файл.
  • -z: проверяет, является ли файл нулевой длины
  • -d / -f: проверяет, является ли путь каталогом / файлом соответственно

Здесь мы подробно обсудим пример

  • Пример : hadoop fs -test - (defz) /user/test/test1.text
16. hadoop fs -du

Отображает размеры файлов и каталогов, содержащихся в данном каталоге, или длину файла, если это файл

17. hadoop fs -df

Отображает свободное место

18. hadoop fs -checksum

Возвращает информацию о контрольной сумме файла

19. hadoop fs -getfacl

Он отображает список контроля доступа (ACL) конкретного файла или каталога

20. hadoop fs -count

Он подсчитывает количество каталогов, файлов и байтов по пути, соответствующему указанному шаблону файла.

21. hadoop fs -setrep

Изменяет коэффициент репликации файла. И если путь является каталогом, то команда изменяет коэффициент репликации всех файлов в каталоге.

  • Пример : hadoop fs -setrep -R / user / datahub: он используется для принятия обратной возможности и не имеет никакого эффекта.

hadoop fs - setrep -w / user / datahub : ожидает завершения репликации

22. hadoop fs -getmerge

Он объединяет файлы HDFS в источнике в локальный файл назначения

  • Пример : hadoop fs -getmerge / user / datahub
23. hadoop fs -appendToFile

Добавляет один или несколько источников из локальной файловой системы в место назначения.

  • Пример : hadoop fs -appendToFile xyz.log data.csv / in / appendfile
24. hadoop fs -stat

Он печатает статистику о файле или каталоге.

  • Пример : hadoop fs -stat (формат)

Вывод - Hadoop fs Commands

Итак, мы прошли почти все команды, которые необходимы для обработки файлов и просмотра данных внутри файлов. Теперь вы можете изменять свои файлы и загружать данные в платформу Hadoop.

Рекомендуемые статьи

Это руководство по командам Hadoop fs. Здесь мы подробно обсудим введение в команды Hadoop fs и его пример. Вы также можете посмотреть следующие статьи, чтобы узнать больше

  1. Установить Hadoop
  2. Инструменты Hadoop
  3. Hadoop Architecture
  4. Компоненты Hadoop
  5. Команды Hadoop fs