Hive的安装部署和管理

2023-05-16

Hive的安装部署和管理

文章目录

        • 实验环境
        • 实验内容
        • 实验步骤
          • 1.点击"命令行终端",打开新窗口
          • 2.解压安装包
          • 3.更改文件夹名和所属用户
          • 4.设置HIVE_HOME环境变量
          • 5.导入MySql jdbc jar包到hive/lib目录下
          • 6.修改hive配置文件
          • 7.启动MySQL
          • 8.指定元数据数据库类型并初始化Schema
          • 9.启动Hadoop
          • 10.启动hive
          • 11.检验hive能否使用
          • 11.检验hive能否使用

实验环境

Linux Ubuntu 16.04
前提条件:
1)Java 运行环境部署完成
2)Hadoop 3.0.0 的单点部署完成
3) MySQL数据库安装完成
上述前提条件,我们已经为你准备就绪了。

实验内容

在上述前提条件下,完成hive的安装部署和管理

实验步骤

1.点击"命令行终端",打开新窗口
2.解压安装包

我们已为您预先下载了Hive的安装包,可直接运行下面的命令,解压安装包 。

sudo tar -zxvf /data/hadoop/apache-hive-2.3.2-bin.tar.gz -C /opt/

解压后,在/opt目录下产生了apache-hive-2.3.2-bin文件夹

3.更改文件夹名和所属用户

更改文件夹名

sudo mv /opt/apache-hive-2.3.2-bin/ /opt/hive

更改所属用户和用户组

sudo chown -R dolphin:dolphin /opt/hive/

4.设置HIVE_HOME环境变量

将"/opt/hive"设置到HIVE_HOME环境变量,作为工作目录

sudo vim ~/.bashrc

在新弹出的编辑器的最下面添加以下内容:

export HIVE_HOME=/opt/hive
export PATH=$PATH:$HIVE_HOME/bin

运行下面命令使环境变量生效

source ~/.bashrc

5.导入MySql jdbc jar包到hive/lib目录下

复制jar包到/app/hive/lib目录下

sudo cp /data/hadoop/mysql-connector-java-5.1.7-bin.jar /opt/hive/lib/

更改jar包所属用户和用户组

sudo chown dolphin:dolphin /opt/hive/lib/mysql-connector-java-5.1.7-bin.jar

6.修改hive配置文件

进入/opt/hive/conf目录下

cd /opt/hive/conf

将hive-default.xml.template文件重命名为hive-default.xml

sudo mv hive-default.xml.template hive-default.xml

创建hive-site.xml文件

sudo touch hive-site.xml

执行后,会在/opt/hive/conf/下产生hive-site.xml文件

修改hive-site.xml文件

sudo vim hive-site.xml

在弹出的编辑器中添加以下内容:
(提示:可以将桌面上的hive-site.txt中的内容复制到hive-site.xml文件中)

<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://localhost:3306/hive_metadata?createDatabaseIfNotExist=true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
</property>
</configuration>

至此,hive的配置已经完成

7.启动MySQL

hive的元数据需要存储在关系型数据库中,这里我们选择了Mysql
本实验平台已经提前安装好了MySql(账户名root,密码123456),这里只需要启动MySql服务即可

sudo /etc/init.d/mysql start

启动成功显示如下

dolphin@tools:~$ sudo /etc/init.d/mysql start
* Starting MySQL database server mysqld
No directory, logging in with HOME=/
[ OK ]
8.指定元数据数据库类型并初始化Schema

schematool -initSchema -dbType mysql

初始化成功后,效果如下:

SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/opt/hive/lib/log4j-slf4j-impl-2.6.2.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/opt/hadoop/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory]
Metastore connection URL:    jdbc:mysql://localhost:3306/hive_metadata?createDatabaseIfNotExist=true
Metastore Connection Driver :    com.mysql.jdbc.Driver
Metastore connection User:   root
Starting metastore schema initialization to 2.3.0
Initialization script hive-schema-2.3.0.mysql.sql
Initialization script completed
schemaTool completed
9.启动Hadoop

进入/opt/hadoop/bin目录

cd /opt/hadoop/sbin

执行启动脚本

./start-all.sh

检验hadoop是否启动成功

jps

dolphin@tools:/opt/hadoop/sbin$ jps
2258 ResourceManager
2020 SecondaryNameNode
1669 NameNode
1787 DataNode
2731 Jps
2556 NodeManager

如上6个进程都启动,表明Hadoop启动成功

10.启动hive

hive

启动成功后,显示效果如下

dolphin@tools:/opt/hadoop/sbin$ hive
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/opt/hive/lib/log4j-slf4j-impl-2.6.2.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/opt/hadoop/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory]
 
Logging initialized using configuration in jar:file:/opt/hive/lib/hive-common-2.3.3.jar!/hive-log4j2.properties Async: true
Hive-on-MR is deprecated in Hive 2 and may not be available in the future versions. Consider using a different execution engine (i.e. spark, tez) or using Hive 1.X releases.
hive>
11.检验hive能否使用

在hive命令行下执行show databases;命令,用于显示有哪些数据库,显示效果如下


hive> show databases;
OK
default
Time taken: 3.06 seconds, Fetched: 1 row(s)


如上表明hive安装部署成功,本次实验结束啦

s.
hive>
11.检验hive能否使用

在hive命令行下执行show databases;命令,用于显示有哪些数据库,显示效果如下


hive> show databases;
OK
default
Time taken: 3.06 seconds, Fetched: 1 row(s)


如上表明hive安装部署成功。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

Hive的安装部署和管理 的相关文章

  • 模糊查询-注意事项

    1 动态查询语句 2 SQL中占位符不能在单引号中 xff0c 否则 xff0c 会以 进行查询数据 39 param 39 39 39 3 SQL中不能使用加号进行字符串拼接 xff0c 加号是用来做运算的 39 39 43 39 D 3
  • 克龙表达式

    Cron表达式详解 1 基本格式 用空格分开的7个部分 xff0c 按顺序依次为 秒 xff1a 0 59 分钟 xff1a 0 59 小时 xff1a 0 23 日期 xff1a 1 31 xff0c 但是需要考虑月的实际天数 day o
  • The method xxx of type xxx must override a superclass method

    原因是1 5及以下不认识 64 override 修改编译版本为1 6及以上 步骤1 2 步骤2 3
  • 删除Activiti表单

    DROP TABLE IF EXISTS ACT RE DEPLOYMENT DROP TABLE IF EXISTS ACT GE PROPERTY DROP TABLE IF EXISTS ACT HI ACTINST DROP TAB
  • 表单重置的2种方式

    1 34 resetBtn 34 click function 34 advertForm 34 0 reset 2 34 resetBtn 34 click function document getElementById 34 adve
  • mybatis的一些笔记

    目录 结论 xff1a mybatis是与数据库交互的框架 MyBatis 01 HelloWorld MyBatis 02 config MyBatis 03 mapper sql映射文件的增删改查 1 单个参数 xff1a mybati
  • SpringMVC笔记

    目录 QuickStart 重要注解 64 RequestMapping 1 把数据封装到bean中且bean中有引用类型user name的值与bean 的参数必须完全一致 xff0c 自动封装 xff0c 引用的类型用 级联user u
  • 解决ubuntu下c++标准库缺少conio.h

    该头文件是用于检测键盘输入的 xff0c 在windows下 xff0c c 43 43 标准库是自带的 xff0c 但是在Linux下没有该头文件 xff0c 可以通过手动的方式进行添加 步骤如下 xff1a 1 打开终端 xff0c s
  • 重装系统之gpt分区与mbr分区

    重装ubunutu系统时往往会碰到不能将系统装在所选分区的 情况 xff0c 一般是因为硬盘原本分区不是gpt分区 重装windows系统时往往会碰到不能将系统装在所选分区的 情况 xff0c 一般是因为硬盘原本分区不是mbr分区 gpt
  • Debian的GNOME汉化(美化)简易教程(转)

    Debian的GNOME汉化 美化 简易教程 转 64 more 64 Debian的GNOME汉化 美化 简易教程 fcitx开机启动 tahoma英文显示 simsun中文显示 openoffice字体调整 这是我自己汉化GNOME的心
  • Centos8 系统下安装jdk1.8

    查看是否已经安装java java version 检查 yum 中有没有 java1 8 包 yum list java 1 8 安装jdk yum install java 1 8 0 openjdk y
  • 3.3:如何在Python中创建文件?

    一 在Python中创建文件的主要步骤包括 1 使用open 函数打开一个文件对象 2 使用文件对象的write 方法向文件中写入内容 3 关闭文件对象 以释放文件资源 二 open 函数有三个参数 1 文件0名 需要创建的文件的名称和路径
  • Android设置暗码简要流程

    设置暗码 1 Phone对暗码的简要处理流程 路径 packages services Telephony src com android phone SpecialCharSequenceMgr java phone中对暗码的处理 spa
  • [教程]Ubuntu20.04安装Node.js

    前言 这两天在装一个工具软件的时候 xff0c 要求先安装Node js xff0c 我也不懂这是用来干什么的 xff0c 只知道跟JavaScript有关 不懂没关系 xff0c 装就完事了 xff0c 管它呢 本文将介绍3种在Ubunt
  • Ubuntu使用管理员(root)身份登录系统

    Ubuntu使用管理员 xff08 root xff09 身份登录系统 一 Ubuntu安装好后 xff0c Ubuntu系统默认root用户是不能登录的 xff0c 密码也是空的 如果想要使用root用户登录 xff0c 必须先为root
  • Android使用代码进行界面布局和改变图标、标题、名称、主界面

    一 代码进行界面布局 lt xml version 61 34 1 0 34 encoding 61 34 utf 8 34 gt 二 Android Studio改变图标 标题 名称 主界面 注意 xff1a 64 表示是在哪个目录或者是
  • Linux(Ubuntu)系统如何安装Python

    Linux 系统是为编程而生的 xff0c 因此绝大多数的 Linux 发行版 xff08 Ubuntu CentOS 等 xff09 都默认自带了 Python 有的 Linux 发行版甚至还会自带两个版本的 Python xff0c 例
  • 如何用python实现多线程爬虫

    当单线程python爬虫已经不能满足企业需求时 xff0c 很多程序员会进行改代码或者增加服务器数量 xff0c 这样虽说也能达到效果 xff0c 但是对于人力物力也是一笔不小的消耗 如果是技术牛点的 xff0c 正常都会自己重新改写多线程
  • ## Hive分析疫情数据

    拿到的数据部分如下 xff1a 4月27日 黑龙江 境外输入 不详 0 45 0 黑龙江卫健委 https m thepaper cn newsDetail forward 7160075 4月27日 内蒙古 境外输入 不详 0 8 0 央
  • python --根据windows窗口名称、进程pid打开窗口(pygetwindow详解)

    pygetwindow详解 简介 pygetwindow是一个Python库 xff0c 用于获取 操作和管理当前打开的窗口 它提供了一些常用的窗口操作方法 xff0c 包括获取窗口句柄 xff0c 获取窗口位置和大小 xff0c 移动和调

随机推荐

  • Redhat Linux advance Server V2.1无法进入桌面(转)

    Redhat Linux advance Server V2 xff11 无法进入桌面 转 64 more 64 在本地调试安装了个Redhat Linux advance Server V2 1 xff0c 一共有5张光盘 xff0c 我
  • Mac上类似于xshell的远程工具:finalshell 和 royal tsx

    FinalShell 国产 国产 国产 自己研发的 是一体化的的服务器 网络管理软件 不仅是ssh客户端 还是功能强大的开发 运维工具 充分满足开发 运维需求 特色功能 免费海外服务器远程桌面加速 ssh加速 本地化命令输入框 支持自动补全
  • css查找元素注意事项

    一 CSS ID 选择器查找元素 1 注意 xff1a 如果元素的ID不唯一 xff0c 或者是动态的 或者name以及linktext属性值也不唯一 我们就需要考虑用Xpath来查找元素了 xff0c 然后再对元素执行操作 不管用什么方式
  • OS2.3.7:多生产者,多消费者问题

    文章目录 0 问题描述1 问题分析2 实现3 总结 0 问题描述 桌子上有一只盘子 xff0c 每次只能向其中放入一个水果 爸爸专向盘子中放苹果 xff0c 妈妈专向盘子中放橘子 xff0c 儿子专等着吃盘子中的橘子 xff0c 女儿专等着
  • java 方法名类名命名规范

    一 命名规范 1 项目名全部小写 2 包名全部小写 3 类名首字母大写 xff0c 如果类名由多个单词组成 xff0c 每个单词的首字母都要大写 大驼峰 xff0c 如 xff1a public class MyFirstClass 4 变
  • Qt arm环境安装

    一 相关工作准备 Qt opensource 和 Qt everywhere 下载 链接 版本为5 9 8 arm linux gcc下载 链接 版本为4 8 3 tslib 下载 链接 版本为1 21 ps 可以不安装Qt opensou
  • STM32驱动ST7789V2 tft屏幕

    一 简介 本次教程使用的是1 54寸240 240像素的tft屏幕 xff0c 其接口协议为SPI协议 在使用的过程中仅需要四根数据即可驱动点亮屏幕 然后硬件使用的是STM32F103C8T6核心板 xff0c 用的是SPI2 一般购买屏幕
  • linux设置复杂度策略、登录超时处理功能

    1 在字符终端下 xff0c 实现某一用户连续错误登陆N次后 xff0c 就锁定该用户X分钟 pam tally2 执行 vi etc pam d login 在 PAM 1 0 下新起一行 xff0c 加入 auth required p
  • 飞控陀螺仪,磁力计,加速计,四元数姿态结算

    MPU6050主要包含陀螺仪和加速度计 陀螺仪主要测量角速度 xff0c 即可以测出某一时间段物体转过的角度 加速度计测量的是物体的加速度 xff0c 重力加速度即物体受重力作用的情况下具有的加速度 xff0c 物体静止时 xff0c 加速
  • 智慧物业管理系统(Springboot)

    开发工具 xff1a IDEA xff0c jdk1 8 数据库 xff1a mysql5 7 前台框架 xff1a layui 后端技术 xff1a springboot 项目描述 xff1a 1 前台住户登录 2 智慧物业管理后台 2
  • 北京大学2020公开课 AVL-Python实现代码

    class TreeNode def init self key val left 61 None right 61 None parent 61 None self key 61 key self payload 61 val self
  • Docker-2020详细教程<配合千锋Java学习营>

    Docker 2020详细教程 lt 配合千锋Java学习营 gt 2020 Docker最新超详细版教程通俗易懂 一 Docker介绍 1 下载Dcoker依的赖环境 想安装Docker xff0c 需要先将依赖的环境全部下载下来 xff
  • 使用阿里云部署Flask网页

    使用阿里云部署Flask网页 前端网页部署 阿里云apache CentOS 配置好Apache后 xff0c 将一整个html css js文件全部copy进 var www html目录下 之后就可以通过访问IP地址访问到你的index
  • MapReduce的个人理解

    MapReduce的个人理解 文章目录 MapReduce模型简介Map和Reduce函数这里给出一个简单实例 MapReduce的工作流程工作流程概述MapReduce的各个执行阶段 Shuffle过程详解Shuffle过程简介Map端的
  • Hadoop配置

    Hadoop配置 文章目录 Linux shell配置环境变量使环境变量生效Hadoop 集群安装配置到两台阿里云linux主机上Hadoop集群模式安装实验环境实验内容1 安装jdk2 下面来修改环境变量3 安装hadoop4 下面来修改
  • HDFS 的使用和管理

    HDFS 的使用和管理 文章目录 HDFS 的使用和管理实验环境实验内容实验步骤1 启动hadoop的hdfs相关进程2 用jps查看HDFS是否启动3 验证HDFS运行状态4 ls 命令5 put 命令6 moveFromLocal 命令
  • HDFS API操作

    HDFS API操作 实验环境 Linux Ubuntu 16 04 前提条件 xff1a 1 xff09 Java 运行环境部署完成 2 xff09 Hadoop 的单点部署完成 上述前提条件 xff0c 我们已经为你准备就绪了 实验内容
  • HBase的安装部署和使用

    HBase的安装部署和使用 文章目录 HBase的安装部署和使用实验环境实验内容实验步骤1 点击 34 命令行终端 34 xff0c 打开新的命令行窗口2 解压安装包3 更改文件夹名和所属用户4 设置HBASE HOME环境变量5 修改hb
  • 熟悉常用的HBase操作

    熟悉常用的HBase操作 文章目录 实验环境实验内容1 编程实现以下指定功能 xff0c 并用Hadoop提供的HBase Shell命令完成相同的任务 xff08 1 xff09 列出HBase所有的表的相关信息 xff0c 如表名 创建
  • Hive的安装部署和管理

    Hive的安装部署和管理 文章目录 实验环境实验内容实验步骤1 点击 34 命令行终端 34 xff0c 打开新窗口2 解压安装包3 更改文件夹名和所属用户4 设置HIVE HOME环境变量5 导入MySql jdbc jar包到hive