BIG DATA 神奇的大数据 - Hadoop(Linux)环境搭建与部署

2023-10-27

自说

Hadoop的运行环境有两种,分别是windows和linux系统,Linux更适合作为服务器操作系统,也更加方便使用。

学习路径

BIG DATA 神奇的大数据 - hadoop简章

准备工作

在部署之前需要用到几个工具以及包,需要提前下载准备

1:linux系统(这里用的是cenos7版本的),具体安装及下载方式可以看之前的文章,非常详细哦

【超详细】Linux系统与管理 - (一)安装Linux系统

2:xshell工具        主要用于连接虚拟机方便操作,具体下载安装方式可以看以下文章

Xshell5(远程终端工具)工具的安装使用 【免费】

3:winscp工具        主要用于本机与虚拟机之间传输数据用,如果直接拖至虚拟机会导致文件损坏

WinSCP的安装与使用

4:Hadoop-3.2.2的下载

https://mirrors.cnnic.cn/apache/hadoop/common/hadoop-3.2.2/

 5:JDK1.8版本的下载,前面说到过,因为hadoop是使用java语言实现开源的软件框架,所以需要用到

https://www.oracle.com/java/technologies/javase/javase-jdk8-downloads.html

 环境搭建

首先使用xshell工具连接虚拟机,再使用WinSCP登录

这里我创建了一个名为hadoop_info文件夹在/usr/local目录下,创建文件夹的命令为 mkdir 文件名

 将下载好的jdk拖至创建的文件夹下

这时候我们查看并安装,等待安装进度加载显示安装完成即可,这里我已经安装过了,命令是rpm -ivh 包名

 安装完成后我们在前目录下找不到jdk是因为在安装时在顶级目录自动生成了一个java目录,我们安装的内容在/usr/java目录中

 我们再将hadoop包以同样的方式拖至到创建的目录中去并查看

 需要解压一下,使用tar -zxvf 包名命令解压,解压完成后我们再次查看便会看到相应目录

 上面都完成之后,这里我们需要配置hadoop文件

我们可以在etc/hadoop中查看hadoop的配置文件

 修改hadoop-env.sh文件       

其中主要记录hadoop的主要环境变量

打开hadoop-env.sh文件并在末端添加java环境变量,可食用shift+g快捷键到文件尾部

export JAVA_HOME=/usr/java/jdk1.8.0_301-amd64
export HADOOP_HOME=/usr/local/hadoop_info/hadoop-3.2.2/

 修改core-site.xml       

其中主要是Hadoop的核心配置

修改之前在图中目录中创建tmp目录用于hadoop存放生成的文件

 在core-site.xml 文件中添加以下内容

<configuration>
        <property>
                <name>fs.defaultFS</name>
                <value>hdfs://localhost:9000</value>
        </property>
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/usr/local/hadoop_info/hadoop-3.2.2/tmp</value>
        </property>
</configuration>

修改hdfs-site.xml文件       

hdfs的进程配置

hdfs-site.xml文件中添加以下内容,并在tmp目录中创建namenode目录用于存放

 <configuration>
        <property>
            <name>dfs.replication</name>
            <value>1</value>
        </property>
        <!--指定hdfs中namenode的存储位置-->
        <property>
             <name>dfs.namenode.name.dir</name>
             <value>/usr/local/hadoop_info/hadoop-3.2.2/tmp/namenode</value>
        </property>
        <property>

        <!--指定hdfs中datanode的存储位置-->
                <name>dfs.datanode.data.dir</name>
                <value>/usr/local/hadoop_info/hadoop-3.2.2/tmp/datanode</value>
        </property>
        <property>
                <name>dfs.http.address</name>
                <value>0.0.0.0:50070</value>
        </property>
        <property>
                <name>dfs.permissions</name>
                <value>false</value>
                <description>need not permissions</description>
</property>

初始化Hadoop

hdfs namenode –format

修改mapred-site.xml文件       

mapreduce的配置

如果没有mapred-site.xml文件,默认文件名为mapred-queues.xml.template,我们需要复制一份将名称改为mapred-site.xml即可

cp mapred-queues.xml.template mapred-site.xml

mapred-site.xml文件中添加以下内容

 <property>
              <name>mapreduce.framework.name</name>
              <value>yarn</value>
       </property>

修改yarn-site.xml文件       

YARN进程配置

yarn-site.xml文件中添加以下内容

 <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
        </property>
 <property>
        <description>指定ResourceManager的地址</description>
        <name>yarn.resourcemanager.hostname</name>
        <value>localhost</value>
   </property>
<property>
        <name>yarn.scheduler.maximum-allocation-mb</name>
        <value>2048</value>
   </property>

   <property>
        <name>yarn.nodemanager.vmem-check-enabled</name>
        <value>false</value>
   </property>

启动namenode和datanode

在hadoop/sbin目录中输入一下命令启动

hadoop-daemon.sh start namenode

hadoop-daemon.sh start datanode

接着jps查看是否启动

 测试namenode

 打开浏览器输入当前主机的IP地址:50070查看,若显示成功

http://192.168.31.63:50070

如果有什么问题或者遗漏错误之处,欢迎指出留言!

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

BIG DATA 神奇的大数据 - Hadoop(Linux)环境搭建与部署 的相关文章

随机推荐

  • 输出1~100之间的基数

    两种循环方法 for循环 include
  • Navicat中sql语句的使用

    1 创建表 2 查看表结构 3 查看创建表结构 4 删除表 drop table 表名 5 添加字段 6 删除字段 7 修改字段 8 新增数据 9 修改 10 删除 11 查询 12 条件查询 13 模糊查询 14 排序 倒序 15 分页
  • springBoot的启动流程

    写在前面 由于该系统是底层系统 以微服务形式对外暴露dubbo服务 所以本流程中SpringBoot不基于jetty或者tomcat等容器启动方式发布服务 而是以执行程序方式启动来发布 参考下图keepRunning方法 本文以调试一个实际
  • 对比Windows和Linux操作系统

    1 Linux操作系统主要功能特点 Linux使用命令行 而Windows不使用命令行 从技术上讲 Windows确实有命令行 但访问它需要额外的步骤 Linux有一个免费的许可证 而Windows则是一个有限的许可证 Linux比Wind
  • ipv6地址技术详解

    一 什么是IPv6 IPv6是英文 Internet Protocol Version 6 互联网协议第6版 的缩写 是互联网工程任务组 IETF 设计的用于替代IPv4的下一代IP协议 其地址数量号称可以为全世界的每一粒沙子编上一个地址
  • 网络---TCP缓冲区配置

    在linux环境下获取所有与tcp缓冲区相关的配置 net ipv4 tcp mem 64608 86144 129216 net ipv4 tcp wmem 4096 16384 2756608 net ipv4 tcp rmem 409
  • ubuntu18.04+大数据hadoop平台完全分布式集群搭建

    hadoop完全分布式集群搭建 超详细 集群信息 jdk 1 8 linux ubuntu18 04 server hadoop hadoop2 9 2 虚拟机 VMware 一 安装VMware 准备一台虚拟机 1 VMware 到VMw
  • Collectors类常用的静态工厂方法

    工厂方法 返回类型 用于 示例 toList List
  • c语言温度控制源代码程序,根据51的温度控制系统设计C语言学习知识源程序.doc...

    根据51的温度控制系统设计C语言学习知识源程序 doc 程序名称温度监控系统 程序功能利用89C52单片机和DS18B20温度传感器实现环境 温度的实时测量和高 低温报警 程序版本v1 0 作 者 编写时间 include reg52 hi
  • Spring中涉及的设计模式

    1 简单工厂 非23种设计模式中的一种 实现方式 BeanFactory Spring中的BeanFactory就是简单工厂模式的体现 根据传入一个唯一的标识来获得Bean对象 但是否是在传入参数后创建还是传入参数前创建这个要根据具体情况来
  • 《因果科学周刊》第7期:2021因果强化学习第一课

    为了帮助大家更好地了解因果科学的最新科研进展和资讯 我们因果科学社区团队本周整理了第7期 因果科学周刊 推送近期因果科学领域值得关注的论文和资讯信息 本期的主题是 因果强化学习 它在众多通向通用人工智能的路径中备受关注 我们非常荣幸邀请到了
  • 沙龙报名中】集结腾讯技术专家,共探AI技术原理与实践

    导语 9月7日 上海市长宁区Hello coffee 云 社区邀您参加 AI技术原理与实践 沙龙活动 聚焦人工智能技术在各产业领域的应用落地 共话AI技术带来的机遇与挑战 展望未来 在如今的工业4 0时代 AI已经成为各领域最火热的技术 那
  • kubernetes-ETCD

    etcd 是CoreOS团队于2013年6月发起的开源项目 它的目标是构建一个高可用的分布式键值数据库 etcd内部采用raft协议作为一致性算法 etcd基于Go语言实现 官方网址 https etcd io github地址 https
  • 正交变换——来龙去脉

    什么是正交变换 正交变换为何要满足下列条件 正交变换研究什么 1 表象 2 正交变换 研究 长度不变 3 性质 角度 长度 面积不变 4 基本形式 1 平移变换 2 旋转变换 3 轴反射变换 几种组合仍是正交变换 5 为何正交满足那样的表象
  • Uncaught TypeError: Cannot read properties of undefined (reading ‘push‘)和Uncaught TypeError: Canno

    学习React视频的时候遇到教程使用老版导致路由的跳转和返回都和新版不一样而报错 找了很久资料发现可以这样使用而不是使用原来的props history go 1 和this props history push home import R
  • 第十四届蓝桥杯冲刺打卡day24

    1 旋转 将每一列倒序输出 题目描述 图片旋转是对图片最简单的处理方式之一 在本题中 你需要对图片顺时针旋转 90 度 我们用一个 n m 的二维数组来表示一个图片 例如下面给出一个 3 4 的 图片的例子 1 3 5 7 9 8 7 6
  • JDBC连接数据库,完成注册和登录

    第一 建立 表 第二 完成登录和注册界面 其中注册界面代码 import java awt Font import java awt event ActionEvent import java awt event ActionListene
  • 【nvidia】2.cuda旧版本卸载

    文章目录 简单方法 高级方法 简单方法 直接删除cuda文件 usr local cuda 0 问号代表版本号 高级方法 方法一 sudo apt get remove nvidia cuda toolkit 方法二 删除cuda tool
  • Python打包为exe可执行文件(含打包图片、音乐方法 + 彻底隐藏cmd黑窗口 + 解决打包程序过大)

    pyinstaller模块打包exe 基本使用方法 安装模块 pip install pyinstaller 命令行cd到Python主程序文件所在的目录 使用格式 pyinstaller F w i x ico xxx py pyinst
  • BIG DATA 神奇的大数据 - Hadoop(Linux)环境搭建与部署

    自说 Hadoop的运行环境有两种 分别是windows和linux系统 Linux更适合作为服务器操作系统 也更加方便使用 学习路径 BIG DATA 神奇的大数据 hadoop简章 准备工作 在部署之前需要用到几个工具以及包 需要提前下