#开hdfs环境:(开启成功后用jps命令出来至少6条数据)
start-all.sh
#关hdfs环境(记得关,容易坏):
stop-all.sh
#上传文件:
-put
hdfs dfs -put 本地路径(或hadoop上路径)/完整文件名 hadoop上路径/
-copyFromLocal
hdfs dfs -copyFromLocal 本地路径/完整文件名 hadoop上路径/
#拷贝到本地:
hdfs dfs -get hadoop上路径/文件名 本地路径/
#创建文件夹:
hdfs dfs -mkdir -p -cat hadoop上要创建的文件夹及目录
#删除文件夹及文件夹下的内容:
hdfs dfs -rm -r 路径
#查看文件:
hdfs dfs -cat hadoop上路径/文件名
查询前17行样本数据:
hdfs dfs -ls t hadoop上路径/
#将文件或目录复制到目标路径:
hdfs dfs -cp 源路径 目标路径
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)