【头歌】Hadoop开发环境搭建

2023-10-26

本来不想写这个了,就为了搞这实验截图,又得敲一遍这个代码。代码量真的大,我真的是吐了呀。MD
大家反正写过,直接粘贴是最佳选择,没必要自己再做一遍

第1关:配置开发环境 - JavaJDK的配置

任务描述
本关任务:配置 JavaJDK

相关知识
配置开发环境是我们学习一门 IT 技术的第一步, Hadoop 是基于 Java 开发的,所以我们学习 Hadoop 之前需要在 Linux 系统中配置 Java 的开发环境。

编程要求
根据上述步骤,配置好 Hadoop 开发环境,点击评测即可。

提示:如果出现文件解压大小限制的情况,可以使用 ulimit -f 1000000 命令来解除限制。


开始你的任务吧,祝你成功!

mkdir /app
cd /opt
ll
tar -zxvf jdk-8u171-linux-x64.tar.gz
mv jdk1.8.0_171/ /app
vim /etc/profile

# 按i进入编辑模式后将下列代码粘贴进去
#----------------------------------------------------------
JAVA_HOME=/app/jdk1.8.0_171
CLASSPATH=.:$JAVA_HOME/lib/tools.jar
PATH=$JAVA_HOME/bin:$PATH

export JAVA_HOME CLASSPATH PATH
#----------------------------------------------------------
# 按Esc后输入 :wq 退出

source /etc/profile
java -version

第2关:配置开发环境 - Hadoop安装与伪分布式集群搭建

任务描述
本关任务:安装配置 Hadoop 开发环境。

这关真的巨麻烦,要再第一关的基础上配置,要过就两关一起,不然浪费时间

编程要求
根据上述步骤,配置好Hadoop开发环境,点击评测即可。

提示:如果出现文件解压大小限制的情况,可以使用 ulimit -f 1000000 命令来解除限制。


开始你的任务吧,祝你成功!

cd /opt
ll
tar -zxvf hadoop-3.1.0.tar.gz -C /app
cd /app
ll
mv hadoop-3.1.0 hadoop3.1
ll
ssh-keygen -t rsa -P ''
#上面这行代码输入后再次输入 回车 即可,不需要额外输入
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 600 ~/.ssh/authorized_keys

接下来会涉及很多修改文件操作

ctrl+shift+v 可以粘贴
最好了解一下linux的修改文件操作,有三种模式

vim /etc/ssh/sshd_config
# 替换 按i 进入编辑模式后
#----------------------------------------------------------
# 找到
RSAAuthentication yes # 启用 RSA 认证
PubkeyAuthentication yes # 启用公钥私钥配对认证方式
#AuthorizedKeysFile %h/.ssh/authorized_keys # 公钥文件路径
# 改为
RSAAuthentication yes # 启用 RSA 认证
PubkeyAuthentication yes # 启用公钥私钥配对认证方式
AuthorizedKeysFile %h/.ssh/authorized_keys # 公钥文件路径
#----------------------------------------------------------
# 按Esc后输入 :wq 退出

cd /app/hadoop3.1/etc/hadoop/

vim hadoop-env.sh
# 追加 按i 进入编辑模式后,将如下代码粘贴进去,快捷键 ctrl - shift -v【后续不在提醒】
#----------------------------------------------------------
# The java implementation to use.  
#export JAVA_HOME=${JAVA_HOME}  
export JAVA_HOME=/app/jdk1.8.0_171
#----------------------------------------------------------
# 按Esc后输入 :wq 退出【后续不在提醒】


vim yarn-env.sh
# 追加
#----------------------------------------------------------
export JAVA_HOME=/app/jdk1.8.0_171
#----------------------------------------------------------

vim core-site.xml
# 替换
#----------------------------------------------------------
<configuration>  
 <property>  
    <name>fs.default.name</name>  
    <value>hdfs://localhost:9000</value>  
    <description>HDFS的URI,文件系统://namenode标识:端口号</description>  
</property>  
  
<property>  
    <name>hadoop.tmp.dir</name>  
    <value>/usr/hadoop/tmp</value>  
    <description>namenode上本地的hadoop临时文件夹</description>  
</property>  
</configuration>  
#----------------------------------------------------------

vim hdfs-site.xml
# 替换
#----------------------------------------------------------
<configuration>  
<property>  
    <name>dfs.name.dir</name>  
    <value>/usr/hadoop/hdfs/name</value>  
    <description>namenode上存储hdfs名字空间元数据 </description>   
</property>  
  
<property>  
    <name>dfs.data.dir</name>  
    <value>/usr/hadoop/hdfs/data</value>  
    <description>datanode上数据块的物理存储位置</description>  
</property>  
  
<property>  
    <name>dfs.replication</name>  
    <value>1</value>  
</property>  
</configuration>  
#----------------------------------------------------------

vim mapred-site.xml
# 替换
#----------------------------------------------------------
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>
#----------------------------------------------------------

vim yarn-site.xml
# 替换
#----------------------------------------------------------
<configuration>  
<property>  
        <name>yarn.nodemanager.aux-services</name>  
        <value>mapreduce_shuffle</value>  
</property>  
<property>  
        <name>yarn.resourcemanager.webapp.address</name>  
        <value>192.168.2.10:8099</value>  
        <description>这个地址是mr管理界面的</description>  
</property>  
</configuration>  
#----------------------------------------------------------

mkdir -p /usr/hadoop/tmp 
mkdir /usr/hadoop/hdfs 
mkdir /usr/hadoop/hdfs/data 
mkdir /usr/hadoop/hdfs/name

vim /etc/profile
# 追加
#----------------------------------------------------------
#set Hadoop Enviroment
export HADOOP_HOME=/app/hadoop3.1
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
#----------------------------------------------------------

source /etc/profile
hadoop namenode -format
start-yarn.sh
cd /app/hadoop3.1/sbin

vim start-dfs.sh
# 追加到第一行
#----------------------------------------------------------
#!/usr/bin/env bash
HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root
#----------------------------------------------------------

vim stop-dfs.sh
# 追加到第一行
#----------------------------------------------------------
#!/usr/bin/env bash
HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root
#----------------------------------------------------------

vim stop-yarn.sh
# 追加到第一行
#----------------------------------------------------------
#!/usr/bin/env bash
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root
#----------------------------------------------------------

vim start-yarn.sh
# 追加到第一行
#----------------------------------------------------------
#!/usr/bin/env bash
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root
#----------------------------------------------------------

start-dfs.sh
jps
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

【头歌】Hadoop开发环境搭建 的相关文章

  • Couchbase/hadoop 连接器:sqoop 作业失败“找到接口 org.apache.hadoop.mapreduce.TaskAttemptContext,但需要类”

    我的配置 CouchBase服务器2 0 Sqoop 1 4 2 针对hadoop版本2 0 0编译 堆栈Hadoop CDH4 1 2 我想使用 CouchBase Hadoop 连接器 http www couchbase com de
  • 在 Hadoop 中处理带标头的文件

    我想在 Hadoop 中处理很多文件 每个文件都有一些头信息 后面跟着很多记录 每个记录都存储在固定数量的字节中 对此有何建议 我认为最好的解决方案是编写一个自定义的InputFormat http hadoop apache org co
  • 猪如何过滤不同的对(对)

    我是猪的新手 我有一个 Pig 脚本 它在两个元素之间生成制表符分隔的对 每行一对 例如 John Paul Tom Nik Mark Bill Tom Nik Paul John 我需要过滤掉重复的组合 如果我使用 DISTINCT 我会
  • 将日期字符串转换为“MM/DD/YY”格式

    我刚刚看到这个例子 我该如何解决这个问题 Hive 元存储包含一个名为 Problem1 的数据库 其中包含一个名为 customer 的表 customer 表包含 9000 万条客户记录 90 000 000 每条记录都有一个生日字段
  • 在 Amazon EMR 上使用 java 中的 hbase 时遇到问题

    因此 我尝试使用作为 MapReduce 步骤启动的自定义 jar 来查询 Amazon ec2 上的 hbase 集群 我的 jar 在地图函数内 我这样调用 Hbase public void map Text key BytesWri
  • 如何通过sparkSession向worker提交多个jar?

    我使用的是火花2 2 0 下面是我在 Spark 上使用的 java 代码片段 SparkSession spark SparkSession builder appName MySQL Connection master spark ip
  • YARN UNHEALTHY 节点

    在我们的 YARN 集群已满 80 的情况下 我们看到一些纱线节点管理器被标记为不健康 在深入研究日志后 我发现这是因为数据目录的磁盘空间已满 90 出现以下错误 2015 02 21 08 33 51 590 INFO org apach
  • 将数据从 oracle 移动到 HDFS,处理并从 HDFS 移动到 Teradata

    我的要求是 将数据从 Oracle 移至 HDFS 处理HDFS上的数据 将处理后的数据移至 Teradata 还需要每 15 分钟执行一次整个处理 源数据量可能接近50GB 处理后的数据也可能相同 在网上搜索了很多之后 我发现 PRARO
  • 非 hdfs 文件系统上的 hadoop/yarn 和任务并行化

    我已经实例化了 Hadoop 2 4 1 集群 并且发现运行 MapReduce 应用程序的并行化方式会有所不同 具体取决于输入数据所在的文件系统类型 使用 HDFS MapReduce 作业将生成足够的容器 以最大限度地利用所有可用内存
  • 猪的组连接等效吗?

    试图在 Pig 上完成这个任务 寻找 MySQL 的 group concat 等效项 例如 在我的表中 我有以下内容 3fields userid clickcount pagenumber 155 2 12 155 3 133 155
  • 如何创建 HIVE 表来读取分号分隔值

    我想创建一个 HIVE 表 该表将以分号分隔的值读取 但我的代码不断给出错误 有没有人有什么建议 CREATE TABLE test details Time STRING Vital STRING sID STRING PARTITION
  • 我可以在没有 Hadoop 的情况下使用 Spark 作为开发环境吗?

    我对大数据和相关领域的概念非常陌生 如果我犯了一些错误或拼写错误 我很抱歉 我想了解阿帕奇火花 http spark apache org 并使用它仅在我的电脑中 在开发 测试环境中 由于Hadoop包含HDFS Hadoop分布式文件系统
  • 如何从hdfs读取文件[重复]

    这个问题在这里已经有答案了 我在 project1目录下的hadoop文件系统中有一个文本文件名mr txt 我需要编写 python 代码来读取文本文件的第一行 而不将 mr txt 文件下载到本地 但我无法从 hdfs 打开 mr tx
  • Pig 10.0 - 将元组分组并在 foreach 中合并包

    我在用着Pig 10 0 我想在 foreach 中合并包 假设我有以下内容visitors alias a b 1 2 3 4 a d 1 3 6 a e 7 z b 1 2 3 我想对第一个字段上的元组进行分组 并将包与一组语义合并以获
  • 无法在 Hadoop Map-Reduce 作业中加载 OpenNLP 句子模型

    我正在尝试将 OpenNLP 集成到 Hadoop 上的 Map Reduce 作业中 从一些基本的句子分割开始 在地图函数中 运行以下代码 public AnalysisFile analyze String content InputS
  • Hadoop NoSuchMethodError apache.commons.cli

    我在用着hadoop 2 7 2我用 IntelliJ 做了一个 MapReduce 工作 在我的工作中 我正在使用apache commons cli 1 3 1我把库放在罐子里 当我在 Hadoop 集群上使用 MapReduceJob
  • 从 HDFS 传出文件

    我想将文件从 HDFS 传输到另一台服务器的本地文件系统 该服务器不在 hadoop 集群中 而是在网络中 我本可以这样做 hadoop fs copyToLocal
  • 使用字符串数组在 Hive 表上加载 CSV 文件

    我正在尝试将 CSV 文件插入 Hive 其中一个字段是 string 数组 这是 CSV 文件 48 Snacks that Power Up Weight Loss Aidan B Prince Health Fitness Trave
  • 无法验证 serde:org.openx.data.jsonserde.jsonserde

    我编写了这个查询来在配置单元上创建一个表 我的数据最初是 json 格式 所以我已经下载并构建了 serde 并添加了它运行所需的所有 jar 但我收到以下错误 FAILED Execution Error return code 1 fr
  • Sqoop 导出分区的 Hive 表

    我在尝试导出分区的 Hive 表时遇到了一些问题 这是否完全受支持 我尝试用谷歌搜索并找到一张 JIRA 票证 sqoop export connect jdbc mysql localhost testdb table sales exp

随机推荐

  • python后端学习(四)进程、消息队列、进程池

    进程以及状态 1 进程 程序 例如xxx py这是程序 是一个静态的 进程 一个程序运行起来后 代码 用到的资源 称之为进程 它是操作系统分配资源的基本单元 不仅可以通过线程完成多任务 进程也是可以的 2 进程的状态 工作中 任务数往往大于
  • 【转载】KaTeX 数学公式大全

    文章目录 转载自 前言 受支持的功能 声调记号 定界符 括号之类 定界符大小 5
  • HTML——锚链接

    不同页面锚链接 a href a p a href 锚链接 html shuiguo 水果 a p p a href 锚链接 html shucai 蔬菜 a p p a href 锚链接 html yundong 运动 a p 展示效果
  • [计算机毕业设计]食品安全数据的关联分析模型的应用

    前言 大四是整个大学期间最忙碌的时光 一边要忙着准备考研 考公 考教资或者实习为毕业后面临的就业升学做准备 一边要为毕业设计耗费大量精力 近几年各个学校要求的毕设项目越来越难 有不少课题是研究生级别难度的 对本科同学来说是充满挑战 为帮助大
  • angular6学习(七):样式设置和调用

    样式调用是在app component ts中调用app component css设置 外置调用 也可内置调用 一 外置调用 在html文件中添加h3标签 在css文件中设置h3样式 显示如下 一 内置调用 在 ts文件中设置h3样式 显
  • 远程计算机已加入AAD凭据不工作

    解决方法 计算机需要加入AAD Azure Active Directory 设置 账户 其他用户 连接工作或学校用户 连接 在下方的 替代操作 中选择 将此设备加入 Azure Active Directory 输入用户名和密码 点击加入
  • 学习日记——STM32CubeMX软件应用(2020.1.31)

    STM32CubeMX的定义 STM32CubeMX是ST公司主动原创的一款代码生成工具 它可以减轻开发时间和费用 相当于一种偷懒的做法 STM32CubeMX集成了一个全面的软件平台 支持STM32每一个系列的MCU开发 STM32Cub
  • 【idea】IDEA常用断点详解

    一 断点条件过滤 场景 过滤条件i lt 10 1 标注断点 点击需要调试的代码行 2 鼠标悬浮在断点上 右击 在condition中输入条件 如 i 10 点击done按钮 3 确认条件是否生效 鼠标悬浮断点 显示所填写的条件 4 点击右
  • 搭建个人网站vm+center os+apache

    如何搭建个人网站 准备的前提 vm cnetos 7 apche 在vm上安装center os的教程就不介绍了这个有很多 1 如何配置一台刚装好了center os 7并且能够使他联网 ping 通百度 ip a查看当前ip地址 如果显示
  • 微信小程序:环形进度条模块

    利用canvas实现微信小程序环形进度条模块 模块下载链接 下载链接 最近开发一款背单词的微信小程序 计划使用环形进度条展示每日背单词进度 效果图如下 可渐变颜色 开发步骤 1 在根目录创建名为components的文件夹 用来放需要引用的
  • java链式编程/级联式编程

    链式编程 也叫级联式编程 调用对象的函数时返回一个this对象指向对象本身 达到链式效果 可以级联调用 链式编程 通过高阶函数以点为连接将多个函数连接在一起完成参数传递和复杂的操作 通俗的说是通过点号 链接在一起成为一句代码 链式编程的优点
  • sqli-labs-less-1完整解析,小白干货

    Less 1 Sql知识点 Limit x y 从x 1行开始输出 共输出y行 Order by 排序 asc升序 默认 desc 降序 Union MySQL执行两条SELECT语句 并把输出组合成单个查询结果集 Group concat
  • Java后端返回前端的日期差9小时?

    当后端返回Date类型到前端的时候 需要在实体中增加 JsonFormat注释 这个可以帮我们处理格式化 很多人都是用下面这种写法 JsonFormat locale zh timezone GMT 8 pattern yyyy MM dd
  • win10蓝牙已配对连接不上_Win10系统蓝牙配对手机连接不成功的解决方法

    Win10系统蓝牙配对手机连接不成功的解决方法 很多的Win10用户都在使用蓝牙连接手机 一些网友在连接时出现win10系统蓝牙已配对但连接不成功 出现在这样的问题怎么解决呢 下面我们来看看Win10镜像官网给大家带来的解决方法 Win10
  • 封装,继承和多态详解

    封装 继承和多态是 C 中三个重要的面向对象编程技术 本文将详细介绍这些技术的概念 原理和用法 以帮助读者更好地理解并应用它们 一 封装 封装是一种面向对象编程的基本概念 它指的是将数据和方法封装在一个对象内部 防止外部通过对象的公共接口直
  • 一文看懂IC芯片生产流程:从设计到制造与封装

    origin http forum esm cn com FORUM POST 1000163993 1201257744 0 HTM ga 1 101949507 338942905 1436813394 芯片制造的过程就如同用乐高盖房子
  • 深度学习和因果如何结合?北交最新《深度因果模型》综述论文,31页pdf涵盖216篇文献详述41个深度因果模型...

    来源 专知 北京交通大学最新 深度因果模型 综述论文 31页pdf涵盖216页pdf详述41个深度因果模型 值得关注 因果关系概念在人类认知中起着重要作用 在过去的几十年里 因果推理在计算机科学 医学 经济学和教育等许多领域都得到了很好的发
  • 关于504报错的解决方法之一

    项目场景 记录一些工作遇见的bug 项目场景 使用命令 npm start 运行代码打开网页 报504 打开失败 问题描述 提示 这里描述项目中遇到的问题 使用命令 npm start 运行代码打开网页 报504 打开失败 原因分析 504
  • 运行java程序报java/lang/NoClassDefFoundError: java/lang/Object

    今天直接将解压后的jre文件放到linux上 执行java命令 报如下错误 Error occurred during initialization of VM java lang NoClassDefFoundError java lan
  • 【头歌】Hadoop开发环境搭建

    本来不想写这个了 就为了搞这实验截图 又得敲一遍这个代码 代码量真的大 我真的是吐了呀 MD 大家反正写过 直接粘贴是最佳选择 没必要自己再做一遍 第1关 配置开发环境 JavaJDK的配置 任务描述 本关任务 配置 JavaJDK 相关知