Hadoop安装及hdfs操作

2023-05-16

**

Hadoop安装及hdfs操作如下

**
先安装完成了centos7,首先要对宿主机(windows)和虚拟机(centos7)的网络进行测试,保证虚拟机可以与宿主机互通.

  1. 在宿主机按下windows+R
    在这里插入图片描述Mac : 在终端中输入ifconfig
    在这里插入图片描述
    Windows : 在cmd命令行(windows+R,输入CMD)窗口中输入ipconfig
    打开虚拟机中的命令行,ping一下上面的虚拟网卡地址。
    在这里插入图片描述
    在虚拟机中输入ifconfig查看虚拟机的ip地址
    ![在这里插入图片描述](https://img-blog.csdnimg.cn/b6e979f9986243029ccd32d107b172f2.png

在宿主机中的命令行中输入ping 192.168.23.134,若出现以下图例,则代表网络互通
2. 上传安装包到虚拟机

2.1 在cecureCRT中新建一个会话(右键点击session文件夹 -> new session)在这里插入图片描述
2.2 在下个页面中输入目标虚拟机的IP地址和最高权限管理员用户root
2.3 在这里插入图片描述

2.4 输入CRT会话的显示名称,输入完成
在这里插入图片描述

2.5 双击session manager窗口中的相应的会话名(19数据本)弹出以下窗口
选择accept & save
在这里插入图片描述
2.6 输入root用户的密码

2.7 成功登录虚拟机
在这里插入图片描述
3. 从宿主机上传安装包到linux虚拟机
3.1 右键点击会话的选项卡,选择 connect SFTP session
3.2 在SFTP窗口中输入linux命令,如cd、ls等,是操作虚拟机
在SFTP窗口中输入l+linux命令,如lcd、lls等,则是在操作宿主机
3.3 需要在宿主机中找到要上传的文件所在的目录
在宿主机,将安装包拷贝到D:/

在SFTP窗口中输入:lcd d:/
3.4 需要在虚拟机中找到上传文件的目标目录(/opt/soft/)
在这里插入图片描述
3.5
在这里插入图片描述
Cd 切换目录
Mkdir soft 在当前目录下创建一个名为soft的文件夹
Ls 列出当前文件夹下的所有子文件夹和文件
Ls -al 列出当前文件夹下的所有子文件夹和文件的详细信息
在这里插入图片描述
以drwxr-xr-x权限为例说明一下linux的权限
首字母:

  • : 代表文件
    d: 代表文件夹
    三组权限:
    rwx r-x r-x : 7 5 5 : 最高权限 777
    u(user) 当前登录的用户权限 rwx :
    r : 读取权限 : 4
    w: 写权限 : 2
    x: 执行权限 : 1
    -: 没有权限
    g(group) r-x : 代表的是用户所在的组权限
    o(other) r-x : 其他用户(如windows的用户)
    3.6 Put / get
    Put: 将某个文件上传到虚拟机的当前目录(/opt/soft)
    Get: 将某个文件下载到宿主机的当前目录(d:/)
    在这里插入图片描述
    3.7 在虚拟机中查看上传的文件
    ls : 简要的列出当前目录下的所有文件及文件夹(文件夹用粗体显示)
    在这里插入图片描述
    ls -a 显示当前目录下的所有文件及文件夹(包含隐藏文件及文件夹,使用.开头)
    在这里插入图片描述

ls -l 显示所有文件及文件夹的详细信息
在这里插入图片描述
第一个root代表的是创建该文件的用户名
第二个root代表的是创建该文件的用户组
Chmod : 修改权限
-rw-r–r-- (644) 修改为 -rwxr-xr-x (755)
在这里插入图片描述
Chown : 修改文件所属用户
Chgrp : 修改文件所属用户组
在这里插入图片描述
ls-al : 既显示隐藏文件,也显示详细信息
ll : ls -l 的简写
4. 安装hadoop之前的准备工作
4.1 修改计算机名称
hostnamectl set-hostname master
在这里插入图片描述
4.2 关闭防火墙并取消其开机启动
systemctl stop firewalld
systemctl disable firewalld
在这里插入图片描述
4.3 修改hosts
vi /etc/hosts : 输入 IP 别名
将ip地址的别名输入到hosts文件中之后, 就可以使用别名替代IP地址了
在这里插入图片描述
5. 安装hadoop
5.1 安装jdk
5.1.1 解压缩jdk安装包
命令: rpm -ivh jdk-8u91-linux-x64.rpm

5.1.2 配置java的环境变量
执行:vi /etc/profile 编辑系统环境变量
JAVA_HOME : java的安装路径

在这里插入图片描述
export JAVA_HOME=/usr/java/jdk1.8.0_91
PATH : 将java安装路径下的bin文件夹以及 jre/bin添加到path
export PATH= P A T H : PATH: PATH:JAVA_HOME/bin: J A V A H O M E / j r e / b i n C L A S S P A T H : . ; t o o l s . j a r d t . j a r r t . j a r e x p o r t C L A S S P A T H = . : JAVA_HOME/jre/bin CLASSPATH : . ; tools.jar dt.jar rt.jar export CLASSPATH=.: JAVAHOME/jre/binCLASSPATH:.tools.jardt.jarrt.jarexportCLASSPATH=.:JAVA_HOME/lib/tools.jar: J A V A H O M E / l i b / d t . j a r : JAVA_HOME/lib/dt.jar: JAVAHOME/lib/dt.jar:JAVA_HOME/jre/lib/rt.jar
在这里插入图片描述
5.1.3 验证java是否安装
在这里插入图片描述
5.2 安装hadoop
5.2.1 解压缩hadoop
命令: tar -zxvf hadoop hadoop-2.7.3.tar.gz
在这里插入图片描述
5.2.2 重命名hadoop文件夹
命令: mv hadoop-2.7.3 hadoop
在这里插入图片描述
5.2.3 hadoop的三种集群模式:
本地模式 : 解压缩hadoop之后不需要进行任何配置。
伪分布模式(*) :测试环境下使用
完全分布式 :生产环境下使用
5.2.4 设置hadoop的环境变量
在这里插入图片描述
#hadoop
export HADOOP_HOME=/opt/soft/hadoop
export PATH= P A T H : PATH: PATH:HADOOP_HOME/bin:$HADOOP_HOME/sbin
5.2.5 设置hadoop-env.sh
找到JAVA_HOME,并将其修改为java安装路径
在这里插入图片描述
5.2.6 设置hadoop的四个配置文件

A. Core-site.xml
cd /opt/soft/hadoop/etc/hadoop
Vi core-site.xml

<property>
    <name>fs.defaultFS</name>
    <value>hdfs://master:9000</value>
</property>
<property> 
    <name>hadoop.tmp.dir</name>
    <value>/opt/soft/hadoop/tmp</value>
Fs.defaultFS: 指定namenode与datanode之间联通地址及端口 Hadoop.tmp.dir : 指定hadoop临时文件夹,如果没有该文件夹,需要提前将其创建出来

B. Hdfs-site.xml

dfs.replication
1

Dfs.replication:文件在hdfs中存储时的副本数量,如果是伪分布式集群,设置为1
如果是完全分布式集群,则建议设置为3.

C. Mapred-site.xml
由于安装后默认只有mapred-site.xml.template 模板文件,需要通过模板复制并重命名mapred-site.xml

mapreduce.framework.name
yarn

Mapreduce.framwork.name:在大数据分析时,运行mapreduce计算模型的框架名称。

D. Yarn-site.xml

yarn.resourcemanager.hostname
master


yarn.nodemanager.aux-services
mapreduce_shuffle

Yarn.redoucemanager.hostname 指定的yarn集群的主节点所在的ip地址,如果在/etc/hosts文件中设置了ip的别名,此处就可以使用别名(master)替代,相同的操作也出现在了core-site中的fs.defaultFS节点中。
Yarn.nodemanager.aux-services map转向reduce的默认算法,采用的是shuffle算法。固定值,不需要修改。
6. 启动hadoop
6.1 使java与hadoop的环境变量生效
source /etc/profile
6.2 设置ssh无秘钥登录
A. 跳入主目录 : cd ~

B. 查看主目录中是否存在.ssh隐藏文件夹
在这里插入图片描述

通过ls -al命令可以观察在当前机器中是不存在.ssh文件

  1. 存在
    生成公私密钥对 : ssh-keygen -t rsa 不需要输入,直接回车即可
    在这里插入图片描述
    发送公钥到目标主机 : ssh-copy-id master 输入当前用户的密码
    在这里插入图片描述
  2. 不存在
    则执行 ssh localhost
    输入密码
    .ssh就出现了,后面操作就与存在时相同了。
    在这里插入图片描述

6.3 hdfs的格式化
Hdfs namenode -format
在这里插入图片描述
注意:如果格式化失败,代表配置是有问题的,需要耐心检查各项配置。一定不要再次格式化,要在格式化之前将我们之前创建临时文件夹/opt/soft/hadoop/tmp中所有内容全部清空。rm -rf /opt/soft/hadoop/tmp/*
6.4 启动hdfs
Start-dfs.sh
在这里插入图片描述
6.5 验证hdfs是否启动成功
A. 运行jps命令,查看进程
Namenode
Datanode
Secondarynamenode
在这里插入图片描述

B. 在宿主机登录hadoop hdfs的webUI查看相关信息。
打开浏览器输入 http://192.168.23.134:50070

在这里插入图片描述
如果输入ip:50070之后能够看到以上页面,则代表hadoop已经安装并启动成功了。
7. hadoop常用脚本:
7.1 hadoop的常用脚本根据功能不同放在了/hadoop_home/bin ,/hadoop_home/sbin
Hadoop_home: hadoop的安装路径
Bin : hadoop的功能性脚本
Hadoop : hadoop脚本可以对hadoop hdfs及yarn进行操作
Hdfs : 专门操作hdfs的脚本
Mapred :mapreduce脚本(不常用)
Yarn:yarn脚本(不常用)
Sbin:
Hadoop-deamon.sh : 单节点管理脚本(开启单个节点的某进程)
Start-dfs.sh - stop-dfs.sh : 开启/关闭hdfs集群
Start-yarn.sh - stop-yarn.sh : 开启/关闭yarn集群
Start-all.sh - stop-all.sh : 开启/关闭hdfs、yarn集群
7.2 操作hdfs的命令入口为hadoop fs 或 hdfs dfs
7.3 数据准备
在平台的实验数据中下载以下数据

通过sftp窗口将数据上传至linux的/opt/datas

上传文件
在这里插入图片描述

7.4 上传 goods01.txt 到 hdfs
A. 执行hadoop fs -put goods01.txt /data 或者 hdfs dfs -put goods01.txt /data
B. 查看上传到hdfs的文件

  1. 通过webUI查看
    在这里插入图片描述
    如果在上传文件的时候,hdfs没有相应的文件夹,会出错。要对错误文件进行删除
    删除命令: hdfs dfs -rm /data
    创建文件夹命令: hdfs dfs -mkdir /data
    上传命令: hdfs dfs -put goods01.txt /data/
    查看文件内容: hdfs dfs -text /data/goods01.txt

  2. 通过hdfs命令查看
    Hdfs dfs -ls /data
    Hdfs dfs -lsr /

  3. 创建目录

在hdfs中进行递归文件夹创建时, 需要mkdir指令添加-p参数
4. 复制本地文件到hdfs
Hdfs dfs -copyFromLocal 本地文件夹名 hdfs的目录
Hdfs dfs Put 本地文件夹名 hdfs的目录

  1. 将hdfs上的文件复制到linux本地
    Hdfs dfs -copyTpLocal hdfs的目标文件路径 linux路径
    Hdfs dfs -get hdfs的目标文件路径 linux路径

hdfs常用命令如下:需要重点掌握
在这里插入图片描述
在这里插入图片描述

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

Hadoop安装及hdfs操作 的相关文章

  • win10更新后任务栏卡死 的原因和解决办法

    文章目录 现象 xff1a 原因 xff1a 第一步 xff1a 断网并关闭资讯和兴趣第二步 xff1a 卸载更新第三步 xff1a 关闭win10自动更新第四步 xff1a 永久关闭资讯和兴趣 现象 xff1a win10 更新后 xff
  • 30 秒速成好莱坞黑客 -- 在 Linux 终端中伪造好莱坞黑客屏幕

    这是一个假好莱坞黑客的视频 xff1a 视频效果 xff1a https www douyin com video 7053016921830116623 简介 xff1a 这个小工具将 Linux 终端变成好莱坞风格的实时黑客场景 该工具
  • linux/mm/memory.c/try_to_share()

    try to share checks the page at address 34 address 34 in the task 34 p 34 to see if it exists and if it is clean If so s
  • 通过 Telnet 在 Linux 终端中观看ASCII 星球大战

    打开终端并使用以下命令安装 telnet xff1a span class token function sudo span span class token function apt span span class token funct
  • 追逐鼠标光标的好奇小猫咪

    Oneko 是一个有趣的命令 xff0c 它将常规光标变成鼠标 xff0c 并创建一只好奇的小猫 xff0c 一旦移动光标 xff0c 小猫就会追逐它 它不仅限于终端 当猫追逐光标时 xff0c 还可以继续工作 使用以下命令安装 Oneko
  • Linux 中的旧扣簧键盘(Bucklespring 键盘)声音

    Ubuntu 可以使用 Snap 轻松安装它 运行以下命令 xff1a span class token function sudo span snap span class token function install span buck
  • PDF已加密,可以打开但是不能编辑不允许打印的解决办法

    文章目录 文档打开口令和许可口令解除加密方法一 FreeMyPdf xff1a http freemypdf com http freemypdf com 方法二 绿色小软件 xff1a PDF Password Remover 文档打开口
  • 如何在 Ubuntu 和其他 Linux 发行版中查看 MAC 地址

    文章目录 使用命令行查找MAC地址获取蓝牙的MAC地址 使用 GUI 获取 MAC 地址 在学习网络或对其进行故障排除时 xff0c 需要知道 MAC 地址 一台计算机可以有多个 MAC 地址 因为MAC地址是联网的核心部分 xff0c 每
  • 卸载流氓透明APP,帮老人清理手机弹窗广告

    症状 xff1a 只要解锁手机 xff0c 就时不时弹出广告视频 xff0c 声音还开到最大 xff0c 无法关闭 尤其是 xff0c 每点开一个app xff0c 都会弹出广告视频 xff0c 接打电话也不例外 xff0c 导致无法正常通
  • 无法翻译此网页的解决办法 - GoogleTranslateIpCheck

    2022年9月末 xff0c 网页翻译工具谷歌翻译停止了中国区服务 GitHub 地址 xff1a https github com Ponderfly GoogleTranslateIpCheck 我用的是win10系统 xff0c 所以
  • 树莓派4B(aarch64,arm64)bullseye安装Qt5、GStreamer

    简介 本文描述树莓派 4B Raspberry Pi OS xff08 64位 xff09 完成启动后 xff0c 进行的第一个编译安装任务 xff1a Qt5 43 GStreamer xff0c 同时也是OpenCV编译安装前的准备工作
  • 51单片机:蜂鸣器

    小白向单片机笔记二 xff1a 蜂鸣器 前言一 蜂鸣器原理二 蜂鸣器原理图1 蜂鸣器代码2 代码解释1 为什么蜂鸣器响 xff0c 和LED6闪烁中有两个delay 函数 xff1f 2 为什么BEEP 61 1是关闭LED6 而i 61
  • 多目标跟踪算法中之图匹配——匈牙利算法和KM算法详解

    目录 一 匈牙利算法1 算法背景及思想2 最大匹配3 最优匹配 完美匹配4 增广路径5 代码实现6 匈牙利算法总结6 1 深度优先6 2 广度优先 二 KM算法思想及局限性代码示例1 定义KM方法类2 定义权重数值 xff0c 执行主函数
  • linux/mm/memory.c/int share_page(unsigned long address)

    share page tries to find a process that could share a page with the current one Address is the address of the wanted pag
  • sumo教程 Hello World

    sumo教程 Hello World 注意事项 确保安装的sumo版本至少为1 4 0 以便能够使用本教程中显示的所有功能 要求 sumo gui和netedit的版本大于等于1 4 0 介绍 这个教程服务于第一次使用sumo的人员 我们准
  • 教程——OSMWebWizard

    教程 OSMWebWizard 有关事宜 osm web wizard提供一种最简单的方式开始sumo 基于一种openstreetmap的摘抄 你可以配置随机流量需求和可视化一种场景在sumo gui 这个教程可以指导你一步步从选择地图类
  • sumo-绕圈行驶

    绕圈行驶 在本教程中 xff0c 我们将使用 netedit 构建一个简单的圆形网络 xff0c 并使用重路由器使车辆绕圈行驶 所有定义文件都可以在 lt SUMO HOME gt docs tutorial circles 目录中找到 本
  • 教程——sumolympics

    SUMOlympics 本教程针对不同的交通模式设置了比赛 xff08 集体 100 米冲刺 xff09 您将学习如何在 netedit 中创建特殊车道和 xff08 非常简单的 xff09 红绿灯 xff0c 使用不同的车辆类别来定义车辆
  • sumo 教程——高速公路

    本教程涵盖了在多车道高速公路上创建异构流以及修改和保存视图设置的非常基本的元素 修建高速公路 编辑几何点 打开 netedit 创建一个虚构的高速公路 我们一开始就保持这个非常简单 xff0c 并考虑一个没有入口或出口的路段 按e进入边创建
  • sumo教程——Manhattan

    介绍 本教程介绍了如何在 SUMO 中构建曼哈顿移动模型 在这个模型中 xff0c 固定数量的车辆在曼哈顿电网网络上随机行驶 所有文件也可以在 lt SUMO HOME gt docs tutorial manhattan 目录中找到 创建

随机推荐

  • 基于51单片机的双通道DHT11温湿度显示器(LCD1602)

    基于STC89C51单片机的双通道DHT11实时温湿度显示系统 xff08 LCD1602 xff09 前言题目要求实现的功能思路介绍 代码部分注意事项驱动部分LCD1602驱动按键驱动 主要模块初始化DHT11驱动中断服务程序显示函数主函
  • 【21-7-25笔记】SR(Segment Routing)详解

    第一卷 第一章 简介 1 11 SRv6 SRv6 将SR框架应用到IPv6数据平面 SRv6对IPv6的价值至关重要 xff0c 将极大地影响未来的IP基础设施部署 xff0c 无论是在数据中心 xff0c 大规模汇聚网络 xff0c 还
  • javascript编写学生,查询学校学生

    lt DOCTYPE html gt lt head gt lt head gt lt style gt table width 400px height 400px border 1px solid red div float left
  • A-Frame基础用法

    简介 x1f170 Frame 是一个用来构建虚拟现实 xff08 VR xff09 应用的网页开发框架 由WebVR的发起人Mozilla VR 团队所开发 xff0c 是当下用来开发WebVR内容主流技术方案 WebVR是一个完全开源的
  • 双色球小程序(关于对数组的使用)

    span class token keyword package span 双色球 span class token punctuation span span class token keyword import span java sp
  • IDEA: 遇到问题Error during artifact deployment. See server log for details,解决

    目录 一 jar 包有有些没能识别 xff0c tomcat没有配置好 xff01 二 这个一般代码错了 xff1a 三 使用更低一点版本的Tomcat 在学习JavaWeb的时候 xff0c 遇到一个著名的报错 xff1a Error d
  • VNC死机的处理方法

    目录 1 打开MobaXterm并登录 2 连续输入以下命令 xff1a 1 打开MobaXterm并登录 2 连续输入以下命令 xff1a conda deactivate 回车 vncserver kill 3 回车 vncserver
  • js异步操作

    一 异步操作概述 单线程模型 单线程模型指的是 xff0c JavaScript 只在一个线程上运行 也就是说 xff0c JavaScript 同时只能执行一个任务 xff0c 其他任务都必须在后面排队等待 程序里面所有的任务 xff0c
  • 【写sql时遇到的bug:org.xml.sax.SAXParseException; lineNumber: 1; columnNumber】

    报错 xff1a org xml sax SAXParseException lineNumber 1 columnNumbe 修改后的代码片段 在使用 64 Select 注解编写sql的时候 xff0c 原先写的 gt 61 和 lt
  • @Scheduled 定时任务不执行

    一 排查代码中添加的定时任务步骤是否正确 启动类上加 64 EnableScheduling 注解定时任务类上加 64 Component定时方法上加 64 Scheduled span class token annotation pun
  • (09)Linux命令【mkdir命令】

    09 Linux命令 mkdir命令 1 1 目录 1 目录 2 Linux系统介绍 3 Linux 应用领域 4 Linux命令 mkdir命令 5 结语 1 2 Linux系统介绍 Linux 全称GNU Linux 是一种免费使用和自
  • 银河麒麟高级服务器操作系统V10上基于Docker、x11vnc-desktop打造基于容器的在线IDEA arm64开发环境方案

    前言 在线IDE目前表现比较好的有云效 xff0c 其功能主要还是以Web方式提供在线vscode集成开发环境 xff0c 启动编辑环境初步推断为内部启动一个专用语言的虚拟机或者容器 xff0c clone源码 优点是客户端只需要一个浏览器
  • FreeRTOS--中断管理

    异常是指任何打断处理器正常执行 xff0c 并且迫使处理器进入一个由有特权的特殊指令执 行的事件 内部事件 xff08 像处理器指令运行产生的事件 xff09 引起的异常称为同步异常 异步异常主要是指由于外部异常源产生的异常 xff0c 是
  • Centos8无法联网问题解决!

    大家好我是菜鸟阿贵 xff0c 今天装了一个centos8发现不能联网 xff0c 甚至在终端都不能ping通 xff0c 在网上找了半天 xff0c 好多博主都是无脑复制别人的 xff0c 自己估计都没有研究过 xff0c 什么修改配置啊
  • linux/fs/namei.c/permission()

    permission is used to check for read write execute permissions on a file I don 39 t know if we should look at just the e
  • 三相无刷直流电机的控制设计(一)基本硬件电路设计

    文章目录 前言 一 三相无刷电机简要介绍 1 1电机原理 2 2使用电机 二 硬件设计 1 驱动芯片选择 2 电路设计 2 1电机桥电路 2 2光耦隔离电路 2 2霍尔采集电路 总结 前言 三相无刷直流电机的控制 从零开始 本系列文章抓药基
  • numpy.maximum()函数和numpy.minimum()函数的使用

    参考链接 numpy maximum 参考链接 numpy minimum 这两个函数的功能大体分别是在两个多维数组中逐元素求最大值和最小值 实验1 numpy maximum 函数 Python span class token numb
  • ImageDraw.rectangle(xy, fill=None, outline=None, width=1)使用举例

    参考链接 ImageDraw rectangle xy fill 61 None outline 61 None width 61 1 ImageDraw rectangle 函数使用说明 在指定的图片上绘制矩形 通过xy可以指定矩形的位置
  • 爬取IP(快代理)

    python 爬IP 分析网页获取IP储存IP全部代码 分析网页 这次分析的是快代理 xff0c 就是这个 想要获取这上面的IP需要分析网页结构 打开开发者工具进行分析 发现所有IP组数据在tr节点中 xff0c 每个具体数据在td节点中
  • Hadoop安装及hdfs操作

    Hadoop安装及hdfs操作如下 先安装完成了centos7 xff0c 首先要对宿主机 xff08 windows xff09 和虚拟机 xff08 centos7 xff09 的网络进行测试 xff0c 保证虚拟机可以与宿主机互通 在