Hadoop3.0.3 HDFS 常用shell 命令

2023-11-15

1、启动Hadoop

./start-all.sh

[root@elk-server sbin]# ./start-all.sh
Starting namenodes on [elk-server]
上一次登录:日 11月 24 21:57:43 CST 2019从 192.168.88.1pts/0 上
elk-server: Warning: Permanently added 'elk-server,192.168.88.135' (ECDSA) to the list of known hosts.
Starting datanodes
上一次登录:日 11月 24 22:44:47 CST 2019pts/0 上
node1: WARNING: /usr/local/hadoop/hadoop-3.0.3/logs does not exist. Creating.
Starting secondary namenodes [elk-server]
上一次登录:日 11月 24 22:44:50 CST 2019pts/0 上
Starting resourcemanager
上一次登录:日 11月 24 22:44:55 CST 2019pts/0 上
Starting nodemanagers
上一次登录:日 11月 24 22:45:02 CST 2019pts/0 上

2、检查Hadoop服务启动情况

jps

[root@elk-server sbin]# jps
7713 NameNode
8516 Jps
8201 ResourceManager
7965 SecondaryNameNode

3、检查HDFS 系统根目录

hadoop fs -ls /

[root@elk-server sbin]# hadoop fs -ls /

4、HDFS创建文件夹

hadoop fs -mkdir /test

[root@elk-server sbin]# hadoop fs -mkdir /test
[root@elk-server sbin]# hadoop fs -ls /
Found 1 items
drwxr-xr-x   - root supergroup          0 2019-11-25 00:15 /test

5、HDFS 创建级联文件夹

hadoop fs -mkdir -p /input/data

[root@elk-server sbin]# hadoop fs -mkdir -p /input/data
[root@elk-server sbin]# hadoop fs -ls /
Found 2 items
drwxr-xr-x   - root supergroup          0 2019-11-25 00:18 /input
drwxr-xr-x   - root supergroup          0 2019-11-25 00:15 /test

6、HDFS查看系统根目录下指定文件夹包括的文件

hadoop fs -ls -R /input

[root@elk-server sbin]# hadoop fs -ls -R /input
drwxr-xr-x   - root supergroup          0 2019-11-25 00:18 /input/data

7、HDFS上传文件

hadoop fs -put words.txt /input/data

[root@elk-server data]# hadoop fs -put words.txt /input/data
[root@elk-server data]# hadoop fs -ls -R /input/data
-rw-r--r--   1 root supergroup         38 2019-11-25 00:24 /input/data/words.tx

8、HDFS 下载文件

hadoop fs -get /input/data/words.txt /usr/local/data/newwords.txt

[root@elk-server data]# hadoop fs -get /input/data/words.txt /usr/local/data/newwords.txt
[root@elk-server data]# ll
总用量 8
-rw-r--r-- 1 root root 38 11月 25 00:27 newwords.txt
-rw-r--r-- 1 root root 38 11月 25 00:23 words.txt

9、HDFS 文件复制

hadoop fs -cp /input/data/words.txt /test

[root@elk-server data]# hadoop fs -cp /input/data/words.txt /test
[root@elk-server data]# hadoop fs -ls /test
Found 1 items
-rw-r--r--   1 root supergroup         38 2019-11-25 00:30 /test/words.txt

10、HDFS 文件移动

hadoop fs -mv /test/words.txt /input

[root@elk-server data]# hadoop fs -mv /test/words.txt /input
[root@elk-server data]# hadoop fs -ls /input
Found 2 items
drwxr-xr-x   - root supergroup          0 2019-11-25 00:24 /input/data
-rw-r--r--   1 root supergroup         38 2019-11-25 00:30 /input/words.txt

11、HDFS 删除文件或文件夹

hadoop fs -rm /input/words.txt

[root@elk-server data]# hadoop fs -rm /input/words.txt
Deleted /input/words.txt
[root@elk-server data]# hadoop fs -ls /input
Found 1 items
drwxr-xr-x   - root supergroup          0 2019-11-25 00:24 /input/data

删除空目录

hadoop fs -rmdir /test

[root@elk-server data]# hadoop fs -rmdir /test
[root@elk-server data]# hadoop fs -ls /
Found 1 items
drwxr-xr-x   - root supergroup          0 2019-11-25 00:37 /input

强制删除

hadoop fs -rm -r /input

[root@elk-server data]# hadoop fs -rm -r /input
Deleted /input
[root@elk-server data]# hadoop fs -ls /

12、HDFS 查看文件内容

hadoop fs -cat /input/data/words.txt

[root@elk-server data]# hadoop fs -mkdir -p /input/data
[root@elk-server data]# hadoop fs -put words.txt /input/data
[root@elk-server data]# hadoop fs -ls /
Found 1 items
drwxr-xr-x   - root supergroup          0 2019-11-25 00:42 /input
[root@elk-server data]# hadoop fs -cat /input/data/words.txt
hell zhangsan
hello lisi
hello wangwu
[root@elk-server data]# 

13、HDFS 修改文件权限,参考Linux 指令之chmod

14、HDFS 修改文件所属组,参考Linux指令之chgrp

15、HDFS 修改为文件所属用户,参考Linux指令之chown

16、HDFS 显示文件相关属性值,参考Linux 指令之du

[root@elk-server data]# hadoop fs -du /input/data/words.txt
38  38  /input/data/words.txt

17、HDFS 显示文件大学,参考Linux 指令之dus

[root@elk-server data]# hadoop fs -dus /input/data/words.txt
dus: DEPRECATED: Please use 'du -s' instead.
38  38  /input/data/words.txt

18、HDFS 清空回收站,参考Linux 指令之expunge

[root@elk-server data]# hadoop fs -expunge  #清空回收站

19、setrep

使用方法:hadoop fs -setrep [-R] <path>

改变一个文件的副本系数。-R选项用于递归改变目录下所有文件的副本系数。

示例:

  • hadoop fs -setrep -w 3 -R /user/hadoop/dir1

返回值:

成功返回0,失败返回-1。

 

20、tail

使用方法:hadoop fs -tail [-f] URI

将文件尾部1K字节的内容输出到stdout。支持-f选项,行为和Unix中一致。

示例:

  • hadoop fs -tail pathname

返回值:
成功返回0,失败返回-1。

 

21、test

使用方法:hadoop fs -test -[ezd] URI

选项:
-e 检查文件是否存在。如果存在则返回0。
-z 检查文件是否是0字节。如果是则返回0。 
-d 如果路径是个目录,则返回1,否则返回0。

示例:

    • hadoop fs -test -e filename

22、查看Hadoop集群状态

hdfs dfsadmin -report

[root@elk-server data]# hdfs dfsadmin -report
Configured Capacity: 18238930944 (16.99 GB)
Present Capacity: 13269663744 (12.36 GB)
DFS Remaining: 13269647360 (12.36 GB)
DFS Used: 16384 (16 KB)
DFS Used%: 0.00%
Replicated Blocks:
	Under replicated blocks: 0
	Blocks with corrupt replicas: 0
	Missing blocks: 0
	Missing blocks (with replication factor 1): 0
	Pending deletion blocks: 0
Erasure Coded Block Groups: 
	Low redundancy block groups: 0
	Block groups with corrupt internal blocks: 0
	Missing block groups: 0
	Pending deletion blocks: 0

-------------------------------------------------
Live datanodes (1):

Name: 192.168.88.136:9866 (node1)
Hostname: node1
Decommission Status : Normal
Configured Capacity: 18238930944 (16.99 GB)
DFS Used: 16384 (16 KB)
Non DFS Used: 4969267200 (4.63 GB)
DFS Remaining: 13269647360 (12.36 GB)
DFS Used%: 0.00%
DFS Remaining%: 72.75%
Configured Cache Capacity: 0 (0 B)
Cache Used: 0 (0 B)
Cache Remaining: 0 (0 B)
Cache Used%: 100.00%
Cache Remaining%: 0.00%
Xceivers: 1
Last contact: Mon Nov 25 00:53:27 CST 2019
Last Block Report: Sun Nov 24 22:44:58 CST 2019

 

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

Hadoop3.0.3 HDFS 常用shell 命令 的相关文章

  • Hive 表的默认分隔符是什么?

    如果我们在创建表时不提及任何分隔符 hive 是否有默认分隔符 创建表日志 ts bigint 行字符串 按 dt 字符串 国家 地区字符串 分区 默认分隔符 001 如果创建hive表时没有设置 您可以将其更改为其他分隔符 例如 hive
  • 在hbase中创建表

    我是 hbase 和 hadoop 的新手 无论如何 我已经成功建立了一个由3台机器组成的hadoop集群 现在我需要一些帮助来建立数据库 我有一个表 评论 包含字段 user id comments 对评论的评论 可以多个 和状态字段相同
  • 在 Zookeeper 中创建路径的最有效方法,其中路径的根元素可能存在也可能不存在?

    想象一条路径 root child1 child2 child3 想象一下 在动物园管理员中 可能存在其中的一部分 比如 root child1 Zookeeper 中没有等效的 mkdir p 此外 如果任何一个操作失败 ZooKeepe
  • 使用自制软件安装hadoop时出错

    我正在尝试在 Mac 上本地安装 hadoop 但在尝试 brew install hadoop 时收到以下错误 brew install hadoop gt Downloading http www apache org dyn clos
  • Hive 上的自定义 MapReduce 程序,规则是什么?输入和输出怎么样?

    我被困了几天 因为我想根据我在 hive 上的查询创建一个自定义的地图缩减程序 在谷歌搜索后我发现没有太多例子 而且我仍然对规则感到困惑 创建自定义 MapReduce 程序的规则是什么 映射器和减速器类怎么样 任何人都可以提供任何解决方案
  • 如何在hadoop/map reduce中创建固定行数的输出文件?

    假设我们有 N 个具有不同行数的输入文件 我们需要生成输出文件 使得每个输出文件恰好有 K 行 最后一个输出文件可以有 是否可以使用单个 MR 作业来完成此操作 我们应该打开文件以便在reducer中显式写入 输出中的记录应该被打乱 tha
  • 当与curl一起使用--negotiate时,是否需要keytab文件?

    The 文档 http hadoop apache org docs stable hadoop project dist hadoop hdfs WebHDFS html描述如何连接到 kerberos 安全端点显示以下内容 curl i
  • Hive 中字符串数据类型是否有最大大小?

    谷歌了很多 但没有在任何地方找到它 或者这是否意味着只要允许集群 Hive 就可以支持任意大字符串数据类型 如果是这样 我在哪里可以找到我的集群可以支持的最大字符串数据类型大小 提前致谢 Hive 列表的当前文档STRING作为有效的数据类
  • 在 Hadoop 中按文件中的值排序

    我有一个文件 其中每行包含一个字符串 然后是一个空格 然后是一个数字 例子 Line1 Word 2 Line2 Word1 8 Line3 Word2 1 我需要按降序对数字进行排序 然后将结果放入文件中 为数字分配排名 所以我的输出应该
  • Sqoop mysql错误-通信链路故障

    尝试运行以下命令 sqoop import connect jdbc mysql 3306 home credit risk table bureau target dir home sqoop username root password
  • hadoop2.2.0追加文件发生AlreadyBeingCreatedException

    我遇到了一个关于hadoop2 2 0追加操作的问题 我通过 HDFS java API 将一些字节附加到 hdfs 文件 首先 如果在附加操作之前文件不存在 我将创建目标文件 代码如下 String fileUri hdfs hadoop
  • R+Hadoop:如何从HDFS读取CSV文件并执行mapreduce?

    在以下示例中 small ints to dfs 1 1000 mapreduce input small ints map function k v cbind v v 2 MapReduce函数的数据输入是一个名为small ints的
  • 在 Amazon EMR 上使用 java 中的 hbase 时遇到问题

    因此 我尝试使用作为 MapReduce 步骤启动的自定义 jar 来查询 Amazon ec2 上的 hbase 集群 我的 jar 在地图函数内 我这样调用 Hbase public void map Text key BytesWri
  • Hive - 线程安全的自动递增序列号生成

    我遇到一种情况 需要将记录插入到特定的 Hive 表中 其中一列需要是自动递增的序列号 即在任何时间点都必须严格遵循 max value 1 规则 记录从许多并行的 Hive 作业插入到这个特定的表中 这些作业每天 每周 每月批量运行 现在
  • 伪分布式模式下的 Hadoop。连接被拒绝

    P S 请不要将此标记为重复 Hi 我一直在尝试以伪分布式模式设置和运行 Hadoop 当我运行 start all sh 脚本时 我得到以下输出 starting namenode logging to home raveesh Hado
  • YARN UNHEALTHY 节点

    在我们的 YARN 集群已满 80 的情况下 我们看到一些纱线节点管理器被标记为不健康 在深入研究日志后 我发现这是因为数据目录的磁盘空间已满 90 出现以下错误 2015 02 21 08 33 51 590 INFO org apach
  • 运行时异常:java.lang.NoSuchMethodException:tfidf$Reduce.()

    如何解决这个问题 tfidf是我的主类 为什么运行jar文件后会出现这个错误 java lang RuntimeException java lang NoSuchMethodException tfidf Reduce
  • 适用于 Hadoop 的 DynamoDB 输入格式

    我必须使用 Hadoop mapreduce 处理保留在 Amazon Dynamodb 中的一些数据 我在互联网上搜索 Dynamo DB 的 Hadoop InputFormat 但找不到它 我对 Dynamo DB 不熟悉 所以我猜测
  • HDFS:使用 Java / Scala API 移动多个文件

    我需要使用 Java Scala 程序移动 HDFS 中对应于给定正则表达式的多个文件 例如 我必须移动所有名称为 xml从文件夹a到文件夹b 使用 shell 命令我可以使用以下命令 bin hdfs dfs mv a xml b 我可以
  • 如何从hdfs读取文件[重复]

    这个问题在这里已经有答案了 我在 project1目录下的hadoop文件系统中有一个文本文件名mr txt 我需要编写 python 代码来读取文本文件的第一行 而不将 mr txt 文件下载到本地 但我无法从 hdfs 打开 mr tx

随机推荐

  • Linux系统创建桌面快捷方式,安装idea,配置idea环境

    一 下载Linux版IDEA 使用浏览器打开IDEA官网的链接 https www jetbrains com idea 或https www jetbrains com idea download other html 使用wget命令下
  • python实现电影院仿真(SimPy)

    SimPy Simulating Real World Processes With Python 仿真环境 电影院仿真 目标 减少顾客的平均等待时间 少于10分钟 在开始仿真前 先思考这个仿真过程 顾客在坐下来看电影前需要经过哪些步骤 到
  • Oracle 错误一览表.docx

    ORA 00001 违反唯一约束条件 ORA 00017 请求会话以设置跟踪事件 ORA 00018 超出最大会话数 ORA 00019 超出最大会话许可数 ORA 00020 超出最大进程数 ORA 00021 会话附属于其它某些进程 无
  • centos7下Mercurial (hg)3.9.2版的安装配置及在sts使用mercurial插件clone,pull,commit,push

    Mercurial 已经在centos7的安装源里存在 Mercurial是一种轻量级分布式版本控制系统 采用Python语言实现 易于学习和使用 扩展性强 其是基于GNU General Public License GPL 授权的开源项
  • matlab数据类型和转换

    转自 http hi baidu com xmf6227 blog item 97ca2ddf98f1b61f495403cb html Matlab中有15种基本数据类型 主要是整型 浮点 逻辑 字符 日期和时间 结构数组 单元格数组以及
  • Pytorch面试题整理(2023.09.10)

    1 pytorch如何微调fine tuning 在加载了预训练模型参数之后 需要finetuning 模型 可以使用不同方式finetune 局部微调 加载了模型参数后 只想调节最后几层 其他层不训练 也就是不进行梯度计算 pytorch
  • 10.1-迁移学习

    迁移学习指的就是 假设你手上有一些跟你现在要进行的task没有直接相关的data 那你能不能用这些没有直接相关的data来帮助我们做一些什么事情 比如说 你现在做的是猫跟狗的classifer 那所谓没有什么直接相关的data是什么意思呢
  • win10 wsl 安装 ubuntu 16.04

    背景 因为大多数是在单系统上开发 现在想装win10 ubuntu共存 但双系统切换好麻烦 于是有了在win10里利用wsl装子系统的想法 操作 启动wsl 因为微软商店没有ubuntu16 04 于是到官网下载ubuntu16 04 其他
  • 解决Vue引用Swiper4插件无法重写分页器样式问题

    最近在尝试用nuxtjs来搭建新的站点 但是平时在jquery里面用惯的一些插件一到vue上面引用就各种不顺畅 本文记录一下在用Swiper插件来做轮播图的时候遇到的问题 至于怎么在vue里面引用插件就不累赘了 npm能告诉你 Swiper
  • 一个小时内学习 SQLite 数据库

    SQLite 是一个开源的嵌入式关系数据库 实现自包容 零配置 支持事务的SQL数据库引擎 其特点是高度便携 使用方便 结构紧凑 高效 可靠 与其他数据库管理系统不同 SQLite 的安装和运行非常简单 在大多数情况下 只要确保SQLite
  • 好用的插件介绍-Clear Cache Chrome插件

    clear cache插件是一款用于清理谷歌浏览器的chrome清理缓存插件 该插件支持清理应用程序缓存 缓存 Cookie 下载 文件系统 表单数据 历史 索引数据库 本地存储 插件数据 密码和WebSQL 你只需要在安装了这款插件后在设
  • VSCode中Python代码自动提示

    自己写的模块 VSCode中无法自动提示 可以按下面步骤试试 1 添加模块路径 文件 设置 首选项 搜索autoComplete 点击 在settings json中编辑 添加模块路径 python autoComplete extraPa
  • nrm安装与配置

    1 nrm安装与配置 npm 介绍 nrm npm registry manager 是npm的镜像源管理工具 有时候国外资源太慢 使用这个就可以快速地在 npm 源间切换 参考文章 西北码农 安装 在命令行执行命令 npm install
  • html 邮件乱码怎么办,如何解决html邮件乱码问题

    html邮件乱码的解决办法 1 在mail函数前一行打印message内容 2 将邮件内容保存为html文件后查看 3 设置UTF 8编码 本文操作环境 windows7系统 HTML5版 Dell G3电脑 如何解决html邮件乱码问题
  • Jenkins 持续集成:Linux 系统 两台机器互相免密登录

    背景知识 我们把public key放在远程系统合适的位置 然后从本地开始进行ssh连接 此时 远程的sshd会产生一个随机数并用我们产生的public key进行加密后发给本地 本地会用private key进行解密并把这个随机数发回给远
  • day21

    530 二叉搜索树的最小绝对差 先转换为有序list 再比较差值 501 二叉搜索树中的众数 先转换为有序list 再进行众数统计寻找 236 二叉树的最近公共祖先 后序遍历 再根据返回的值寻找祖先 package algor traini
  • 3d打印,机器人,计算机,3D打印的机器人将教孩子计算机编码!

    原标题 3D打印的机器人将教孩子计算机编码 随着我们的世界变得日益数字化的 越来越多的编码和计算机编程工作如雨后春笋般冒出 需要越来越多的人在编码语言 成为精通 这种先进的计算机知识将更加为下一代更重要 因为2024年 超过100万以上的编
  • Linux 三分钟学会虚拟机与外网和主机互通

    首先准备好一台安装好的虚拟机 字符界面也一样 配置虚拟网卡 添加一张虚拟网卡用来连接主机和虚拟机 通过图中步骤设置好 最后和最后那张图显示一样 确定 右击需要配置网络的虚拟机 单击添加 选中网络适配器 然后单击确定 点击自定义 然后选择刚刚
  • C++ 多态虚函数表(VS2013)

    对于含有虚函数的类 基类或者自身 自身非纯虚函数 的对象 都拥有一个指向虚函数表的指针 占一个指针大小的内存 在类成员变量之前 相当于第一个成员变量 多重继承的时候 几个基类就几个指针 就几个虚函数表 每个类的虚函数表确定了各个方法指向那个
  • Hadoop3.0.3 HDFS 常用shell 命令

    1 启动Hadoop start all sh root elk server sbin start all sh Starting namenodes on elk server 上一次登录 日 11月 24 21 57 43 CST 2