Comment copier un fichier depuis HDFS vers le système de fichiers local . Il n'y a pas d'emplacement physique d'un fichier sous le fichier, pas même un répertoire. comment puis-je les déplacer vers mon local pour d'autres validations. j'ai essayé à travers winscp.
Réponses
Trop de publicités?bin/hadoop fs -get /hdfs/source/path /localfs/destination/path
bin/hadoop fs -copyToLocal /hdfs/source/path /localfs/destination/path
- Dirigez votre navigateur Web vers HDFS WEBUI (
namenode_machine:50070
), naviguez jusqu'au fichier que vous avez l'intention de copier, faites défiler la page et cliquez sur télécharger le fichier .
Dans Hadoop 2.0,
hdfs dfs -copyToLocal <hdfs_input_file_path> <output_path>
où,
-
hdfs_input_file_path
peut être obtenu à partir dehttp://<<name_node_ip>>:50070/explorer.html
-
output_path
est le chemin local du fichier, où le fichier doit être copié. -
vous pouvez également utiliser
get
à la place decopyToLocal
.
Afin de copier des fichiers de HDFS vers le système de fichiers local, la commande suivante peut être exécutée :
hadoop dfs -copyToLocal <input> <output>
-
<input>
le chemin du répertoire HDFS (par exemple /mydata) que vous voulez copier. -
<output>
: le chemin du répertoire de destination (par exemple ~/Documents)
Mise à jour : Hadoop est déprécié dans Hadoop 3
utiliser hdfs dfs -copyToLocal <input> <output>
Que vous pouvez accomplir de ces deux manières.
1.hadoop fs -get <HDFS file path> <Local system directory path>
2.hadoop fs -copyToLocal <HDFS file path> <Local system directory path>
Ex :
Mes fichiers sont situés dans /sourcedata/mydata.txt Je veux copier un fichier vers le système de fichiers local dans ce chemin. /user/ravi/mydata
hadoop fs -get /sourcedata/mydata.txt /user/ravi/mydata/
- Réponses précédentes
- Plus de réponses