当我说要做大数据工程师时他们都笑我,直到三个月后……

2023-05-16

作者:Fickr孫啟誠
原文: 三个月大数据研发学习计划实战解析
关注微信公众号:「GitChat 技术杂谈」 一本正经的讲技术

【不要错过文末彩蛋】

申明:

本文旨在为普通程序员(Java程序员最佳)提供一个入门级别的大数据技术学习路径,不适用于大数据工程师的进阶学习,也不适用于零编程基础的同学。


前言:

  • 一、背景介绍
  • 二、大数据介绍

正文:

  • 一、大数据相关的工作介绍
  • 二、大数据工程师的技能要求
  • 三、大数据学习规划
  • 四、持续学习资源推荐(书籍,博客,网站)
  • 五、项目案例分析(批处理+实时处理)

###前言

####一、背景介绍

本人目前是一名大数据工程师,项目数据50T,日均数据增长20G左右,个人是从Java后端开发,经过3个月的业余自学成功转型大数据工程师。

####二、大数据介绍

大数据本质也是数据,但是又有了新的特征,包括数据来源广数据格式多样化(结构化数据、非结构化数据、Excel文件、文本文件等)、数据量大(最少也是TB级别的、甚至可能是PB级别)、数据增长速度快等。

针对以上主要的4个特征我们需要考虑以下问题:

  1. 数据来源广,该如何采集汇总?,对应出现了Sqoop,Cammel,Datax等工具。

  2. 数据采集之后,该如何存储?,对应出现了GFS,HDFS,TFS等分布式文件存储系统。

  3. 由于数据增长速度快,数据存储就必须可以水平扩展。

  4. 数据存储之后,该如何通过运算快速转化成一致的格式,该如何快速运算出自己想要的结果?

对应的MapReduce这样的分布式运算框架解决了这个问题;但是写MapReduce需要Java代码量很大,所以出现了Hive,Pig等将SQL转化成MapReduce的解析引擎;

普通的MapReduce处理数据只能一批一批地处理,时间延迟太长,为了实现每输入一条数据就能得到结果,于是出现了Storm/JStorm这样的低时延的流式计算框架;

但是如果同时需要批处理流处理,按照如上就得搭两个集群,Hadoop集群(包括HDFS+MapReduce+Yarn)和Storm集群,不易于管理,所以出现了Spark这样的一站式的计算框架,既可以进行批处理,又可以进行流处理(实质上是微批处理)。

  1. 而后Lambda架构,Kappa架构的出现,又提供了一种业务处理的通用架构。

  2. 为了提高工作效率,加快运速度,出现了一些辅助工具:

  • Ozzie,azkaban:定时任务调度的工具。
  • Hue,Zepplin:图形化任务执行管理,结果查看工具。
  • Scala语言:编写Spark程序的最佳语言,当然也可以选择用Python。
  • Python语言:编写一些脚本时会用到。
  • Allluxio,Kylin等:通过对存储的数据进行预处理,加快运算速度的工具。

以上大致就把整个大数据生态里面用到的工具所解决的问题列举了一遍,知道了他们为什么而出现或者说出现是为了解决什么问题,进行学习的时候就有的放矢了。

###正文

####一、大数据相关工作介绍

大数据方向的工作目前主要分为三个主要方向:

  1. 大数据工程师
  2. 数据分析师
  3. 大数据科学家
  4. 其他(数据挖掘等)

####二、大数据工程师的技能要求

附上大数据工程师技能图:

enter image description here

必须掌握的技能11条

  1. Java高级(虚拟机、并发)
  2. Linux 基本操作
  3. Hadoop(HDFS+MapReduce+Yarn )
  4. HBase(JavaAPI操作+Phoenix )
  5. Hive(Hql基本操作和原理理解)
  6. Kafka
  7. Storm/JStorm
  8. Scala
  9. Python
  10. Spark (Core+sparksql+Spark streaming )
  11. 辅助小工具(Sqoop/Flume/Oozie/Hue等)

高阶技能6条

  1. 机器学习算法以及mahout库加MLlib
  2. R语言
  3. Lambda 架构
  4. Kappa架构
  5. Kylin
  6. Alluxio

####三、学习路径

假设每天可以抽出3个小时的有效学习时间,加上周末每天保证10个小时的有效学习时间;

3个月会有(213+42*10)*3=423小时的学习时间。

第一阶段(基础阶段)

1)Linux学习(跟鸟哥学就ok了)-----20小时

  1. Linux操作系统介绍与安装。
  2. Linux常用命令。
  3. Linux常用软件安装。
  4. Linux网络。
  5. 防火墙。
  6. Shell编程等。

官网:https://www.centos.org/download/
中文社区:http://www.linuxidc.com/Linux/2017-09/146919.htm

2)Java 高级学习(《深入理解Java虚拟机》、《Java高并发实战》)—30小时

  1. 掌握多线程。
  2. 掌握并发包下的队列。
  3. 了解JMS。
  4. 掌握JVM技术。
  5. 掌握反射和动态代理。

官网:https://www.java.com/zh_CN/
中文社区:http://www.java-cn.com/index.html

3)Zookeeper学习(可以参照这篇博客进行学习:http://www.cnblogs.com/wuxl360/p/5817471.html)

  1. Zookeeper分布式协调服务介绍。
  2. Zookeeper集群的安装部署。
  3. Zookeeper数据结构、命令。
  4. Zookeeper的原理以及选举机制。

官网:http://zookeeper.apache.org/
中文社区:http://www.aboutyun.com/forum-149-1.html

第二阶段(攻坚阶段)

4)Hadoop (《Hadoop 权威指南》)—80小时

  1. HDFS
  • HDFS的概念和特性。
  • HDFS的shell操作。
  • HDFS的工作机制。
  • HDFS的Java应用开发。
  1. MapReduce

    • 运行WordCount示例程序。
    • 了解MapReduce内部的运行机制。
      • MapReduce程序运行流程解析。
      • MapTask并发数的决定机制。
      • MapReduce中的combiner组件应用。
      • MapReduce中的序列化框架及应用。
      • MapReduce中的排序。
      • MapReduce中的自定义分区实现。
      • MapReduce的shuffle机制。
      • MapReduce利用数据压缩进行优化。
      • MapReduce程序与YARN之间的关系。
      • MapReduce参数优化。
  2. MapReduce的Java应用开发

官网:http://hadoop.apache.org/
中文文档:http://hadoop.apache.org/docs/r1.0.4/cn/
中文社区:http://www.aboutyun.com/forum-143-1.html

5)Hive(《Hive开发指南》)–20小时

  1. Hive 基本概念

    • Hive 应用场景。
    • Hive 与hadoop的关系。
    • Hive 与传统数据库对比。
    • Hive 的数据存储机制。
  2. Hive 基本操作

    • Hive 中的DDL操作。
    • 在Hive 中如何实现高效的JOIN查询。
    • Hive 的内置函数应用。
    • Hive shell的高级使用方式。
    • Hive 常用参数配置。
    • Hive 自定义函数和Transform的使用技巧。
    • Hive UDF/UDAF开发实例。
  3. Hive 执行过程分析及优化策略

官网:https://hive.apache.org/
中文入门文档:http://www.aboutyun.com/thread-11873-1-1.html
中文社区:http://www.aboutyun.com/thread-7598-1-1.html

6)HBase(《HBase权威指南》)—20小时

  1. hbase简介。
  2. habse安装。
  3. hbase数据模型。
  4. hbase命令。
  5. hbase开发。
  6. hbase原理。

官网:http://hbase.apache.org/
中文文档:http://abloz.com/hbase/book.html
中文社区:http://www.aboutyun.com/forum-142-1.html

7)Scala(《快学Scala》)–20小时

  1. Scala概述。
  2. Scala编译器安装。
  3. Scala基础。
  4. 数组、映射、元组、集合。
  5. 类、对象、继承、特质。
  6. 模式匹配和样例类。
  7. 了解Scala Actor并发编程。
  8. 理解Akka。
  9. 理解Scala高阶函数。
  10. 理解Scala隐式转换。

官网:http://www.scala-lang.org/
初级中文教程:http://www.runoob.com/scala/scala-tutorial.html

8)Spark (《Spark 权威指南》)—60小时

enter image description here

  1. Spark core

    • Spark概述。
    • Spark集群安装。
    • 执行第一个Spark案例程序(求PI)。
  2. RDD

enter image description here

  • RDD概述。
  • 创建RDD。
  • RDD编程API(Transformation 和 Action Operations)。
  • RDD的依赖关系
  • RDD的缓存
  • DAG(有向无环图)
  1. Spark SQL and DataFrame/DataSet

enter image description here

- Spark SQL概述。
- DataFrames。
- DataFrame常用操作。
- 编写Spark SQL查询程序。
  1. Spark Streaming

enter image description here

enter image description here

  • park Streaming概述。
  • 理解DStream。
  • DStream相关操作(Transformations 和 Output Operations)。
  1. Structured Streaming

  2. 其他(MLlib and GraphX )

这个部分一般工作中如果不是数据挖掘,机器学习一般用不到,可以等到需要用到的时候再深入学习。

官网:http://spark.apache.org
中文文档(但是版本有点老):https://www.gitbook.com/book/aiyanbo/spark-programming-guide-zh-cn/details
中文社区:http://www.aboutyun.com/forum-146-1.html

9)Python (推荐廖雪峰的博客—30小时

10)自己用虚拟机搭建一个集群,把所有工具都装上,自己开发一个小demo —30小时

可以自己用VMware搭建4台虚拟机,然后安装以上软件,搭建一个小集群(本人亲测,I7,64位,16G内存,完全可以运行起来,以下附上我学习时用虚拟机搭建集群的操作文档)


集群搭建文档1.0版本

1. 集群规划

enter image description here

所有需要用到的软件:

链接:http://pan.baidu.com/s/1jIlAz2Y
密码:kyxl

2. 前期准备

2.0 系统安装

2.1 主机名配置

	2.1.0 vi /etc/sysconfig/network
		NETWORKING=yes

	2.1.1 vi /etc/sysconfig/network
		NETWORKING=yes
		HOSTNAME=ys02
		
	2.1.2 vi /etc/sysconfig/network
		NETWORKING=yes

	2.1.3 vi /etc/sysconfig/network
		NETWORKING=yes
		HOSTNAME=ys04
		
2.2 host文件修改
	2.2.0 vi /etc/hosts
		10.1.1.149 ys01
		10.1.1.148 ys02
		10.1.1.146 ys03
		10.1.1.145 ys04
2.3 关闭防火墙(centos 7默认使用的是firewall,centos 6 默认是iptables)

	2.3.0 systemctl stop firewalld.service (停止firewall)

	2.3.1 systemctl disable firewalld.service (禁止firewall开机启动)

	2.3.2 firewall-cmd --state (查看默认防火墙状态(关闭后显示notrunning,开启后显示running)

2.4 免密登录(ys01 ->ys02,03,04)
    ssh-keygen -t rsa
	ssh-copy-id ys02(随后输入密码)
    ssh-copy-id ys03(随后输入密码)
	ssh-copy-id ys04(随后输入密码)
	ssh ys02(测试是否成功)
	ssh ys03(测试是否成功)
	ssh ys04(测试是否成功)
	
2.5 系统时区与时间同步
	tzselect(生成日期文件)
	cp /usr/share/zoneinfo/Asia/Shanghai  /etc/localtime(将日期文件copy到本地时间中)

3. 软件安装

3.0 安装目录规划(软件为所有用户公用)
	
	3.0.0所有软件的安装放到/usr/local/ys/soft目录下(mkdir /usr/local/ys/soft)

	3.0.1所有软件安装到/usr/local/ys/app目录下(mkdir /usr/local/ys/app)

 3.1 JDK(jdk1.7)安装
	
	3.1.1 alt+p 后出现sftp窗口,cd /usr/local/ys/soft,使用sftp上传tar包到虚机ys01的/usr/local/ys/soft目录下

	3.1.2解压jdk
      cd /usr/local/ys/soft
		#解压
		tar -zxvf jdk-7u80-linux-x64.tar.gz -C /usr/local/ys/app
	
	3.1.3将java添加到环境变量中
	vim /etc/profile
	#在文件最后添加
	export JAVA_HOME= /usr/local/ys/app/ jdk-7u80
	export PATH=$PATH:$JAVA_HOME/bin
	
	3.1.4 刷新配置
	source /etc/profile
	
3.2 Zookeeper安装
	
	3.2.0解压
	tar -zxvf zookeeper-3.4.5.tar.gz -C /usr/local/ys/app(解压)

	3.2.1 重命名
	mv zookeeper-3.4.5 zookeeper(重命名文件夹zookeeper-3.4.5为zookeeper)

	3.2.2修改环境变量
	vi /etc/profile(修改文件)
	添加内容:
	export ZOOKEEPER_HOME=/usr/local/ys/app/zookeeper
	export PATH=$PATH:$ZOOKEEPER_HOME/bin

	3.2.3 重新编译文件:
	source /etc/profile
	注意:3台zookeeper都需要修改

	3.2.4修改配置文件
	cd zookeeper/conf
	cp zoo_sample.cfg zoo.cfg
	vi zoo.cfg
	添加内容:
	dataDir=/usr/local/ys/app/zookeeper/data
	dataLogDir=/usr/local/ys/app/zookeeper/log
	server.1=ys01:2888:3888 (主机名, 心跳端口、数据端口)
	server.2=ys02:2888:3888
	server.3=ys04:2888:3888

	3.2.5 创建文件夹
	cd /usr/local/ys/app/zookeeper/
	mkdir -m 755 data
	mkdir -m 755 log

	3.2.6 在data文件夹下新建myid文件,myid的文件内容为:
	cd data
	vi myid
	添加内容:
		1
	将集群下发到其他机器上
	scp -r /usr/local/ys/app/zookeeper ys02:/usr/local/ys/app/
	scp -r /usr/local/ys/app/zookeeper ys04:/usr/local/ys/app/

    3.2.7修改其他机器的配置文件
	到ys02上:修改myid为:2
	到ys02上:修改myid为:3

    3.2.8启动(每台机器)
	zkServer.sh start
	查看集群状态
	jps(查看进程)
	zkServer.sh status(查看集群状态,主从信息)

3.3 Hadoop(HDFS+Yarn)

	3.3.0 alt+p 后出现sftp窗口,使用sftp上传tar包到虚机ys01的/usr/local/ys/soft目录下

	3.3.1 解压jdk
      cd /usr/local/ys/soft
		#解压
		tar -zxvf cenos-7-hadoop-2.6.4.tar.gz -C /usr/local/ys/app

	3.3.2 修改配置文件

core-site.xml

enter image description here

hdfs-site.xml

enter image description here

enter image description here

enter image description here

enter image description here

enter image description here

yarn-sifite.xml

enter image description here

svales

ys02
ys03
ys04

3.3.3集群启动(严格按照下面的步骤)
	3.3.3.1启动zookeeper集群(分别在ys01、ys02、ys04上启动zk)
		cd /usr/local/ys/app/zookeeper-3.4.5/bin/
		./zkServer.sh start
		#查看状态:一个leader,两个follower
		./zkServer.sh status
	
	3.3.3.2启动journalnode(分别在在mini5、mini6、mini7上执行)
		cd /usr/local/ys/app/hadoop-2.6.4
		sbin/hadoop-daemon.sh start journalnode
		#运行jps命令检验,ys02、ys03、ys04上多了JournalNode进程
	
	3.3.3.3格式化HDFS
		#在ys01上执行命令:
		hdfs namenode -format
		#格式化后会在根据core-site.xml中的hadoop.tmp.dir配置生成个文件,这里我配置的是/usr/local/ys/app/hadoop-2.6.4/tmp,然后将/usr/local/ys/app/hadoop-2.6.4/tmp拷贝到ys02的/usr/local/ys/app/hadoop-2.6.4/下。
		scp -r tmp/ ys02:/usr/local/ys /app/hadoop-2.6.4/
		##也可以这样,建议hdfs namenode -bootstrapStandby
	
	3.3.3.4格式化ZKFC(在ys01上执行一次即可)
		hdfs zkfc -formatZK
	
	3.3.3.5启动HDFS(在ys01上执行)
		sbin/start-dfs.sh
	
	3.3.3.6启动YARN
		sbin/start-yarn.sh

3.3MySQL-5.6安装
	略过
	
3.4 Hive

	3.4.1 alt+p 后出现sftp窗口,cd /usr/local/ys/soft,使用sftp上传tar包到虚机ys01的/usr/local/ys/soft目录下

	3.4.2解压
	cd /usr/local/ys/soft
tar -zxvf hive-0.9.0.tar.gz -C /usr/local/ys/app

	3.4.3 .配置hive
		
		3.4.3.1配置HIVE_HOME环境变量  vi conf/hive-env.sh 配置其中的$hadoop_home

		3.4.3.2配置元数据库信息   vi  hive-site.xml 

添加如下内容:

enter image description here

enter image description here

	3.4.4 安装hive和mysq完成后,将mysql的连接jar包拷贝到$HIVE_HOME/lib目录下
	如果出现没有权限的问题,在mysql授权(在安装mysql的机器上执行)
	mysql -uroot -p
	#(执行下面的语句  *.*:所有库下的所有表   %:任何IP地址或主机都可以连接)
	GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY 'root' WITH GRANT OPTION;
	FLUSH PRIVILEGES;

	3.4.5 Jline包版本不一致的问题,需要拷贝hive的lib目录中jline.2.12.jar的jar包替换掉hadoop中的 /usr/local/ys/app/hadoop-2.6.4/share/hadoop/yarn/lib/jline-0.9.94.jar

	3.4.6启动hive
    bin/hive

3.5 Kafka
	3.5.1 下载安装包
	http://kafka.apache.org/downloads.html
	在linux中使用wget命令下载安装包
	wget http://mirrors.hust.edu.cn/apache/kafka/0.8.2.2/kafka_2.11-0.8.2.2.tgz
	
  3.5.2 解压安装包
	tar -zxvf /usr/local/ys/soft/kafka_2.11-0.8.2.2.tgz -C /usr/local/ys/app/
cd /usr/local/ys/app/
ln -s kafka_2.11-0.8.2.2 kafka

  3.5.3 修改配置文件
	cp 
	/usr/local/ys/app/kafka/config/server.properties
   /usr/local/ys/app/kafka/config/server.properties.bak
	vi  /usr/local/ys/kafka/config/server.properties

输入以下内容:

enter image description here

	3.5.4 分发安装包
	scp -r /usr/local/ys/app/kafka_2.11-0.8.2.2 ys02: /usr/local/ys/app/
    scp -r /usr/local/ys/app/kafka_2.11-0.8.2.2 ys03: /usr/local/ys/app/
    scp -r /usr/local/ys/app/kafka_2.11-0.8.2.2 ys04: /usr/local/ys/app/
	然后分别在各机器上创建软连
	cd /usr/local/ys/app/
	ln -s kafka_2.11-0.8.2.2 kafka

 3.5.5 再次修改配置文件(重要)
   依次修改各服务器上配置文件的的broker.id,分别是0,1,2不得重复。

 3.5.6 启动集群
	依次在各节点上启动kafka
	bin/kafka-server-start.sh  config/server.properties

3.6 Spark

	3.6.1 alt+p 后出现sftp窗口,cd /usr/local/ys/soft,使用sftp上传tar包到虚机ys01的/usr/local/ys/soft目录下
	
	3.6.2  解压安装包
tar -zxvf /usr/local/ys/soft/ spark-1.6.1-bin-hadoop2.6.tgz -C /usr/local/ys/app/

	3.6.3 修改Spark配置文件(两个配置文件spark-env.sh和slaves)
	cd /usr/local/ys/soft/spark-1.6.1-bin-hadoop2.6
	进入conf目录并重命名并修改spark-env.sh.template文件
	cd conf/
	mv spark-env.sh.template spark-env.sh
	vi spark-env.sh
	在该配置文件中添加如下配置
	export JAVA_HOME=/usr/java/jdk1.7.0_45
	export SPARK_MASTER_PORT=7077
	export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=ys01,ys02,ys04 -Dspark.deploy.zookeeper.dir=/spark"
	保存退出
	重命名并修改slaves.template文件
	mv slaves.template slaves
	vi slaves
	在该文件中添加子节点所在的位置(Worker节点)
	Ys02
	Ys03
	Ys04
	保存退出
	
    3.6.4 将配置好的Spark拷贝到其他节点上
	scp -r spark-1.6.1-in-hadoop2.6/ ys02:/usr/local/ys/app
	scp -r spark-1.6.1-bin-hadoop2.6/ ys03:/usr/local/ys/app
	scp -r spark-1.6.1-bin-hadoop2.6/ ys04:/usr/local/ys/app

	3.6.5 集群启动
	在ys01上执行sbin/start-all.sh脚本
	然后在ys02上执行sbin/start-master.sh启动第二个Master

3.7 Azkaban

	3.7.1 azkaban web服务器安装
		解压azkaban-web-server-2.5.0.tar.gz
		命令: tar –zxvf /usr/local/ys/soft/azkaban-web-server-2.5.0.tar.gz -C /usr/local/ys/app/azkaban
       将解压后的azkaban-web-server-2.5.0 移动到 azkaban目录中,并重新命名 webserver
     命令: mv azkaban-web-server-2.5.0 ../azkaban
       cd ../azkaban
        mv azkaban-web-server-2.5.0   webserver
  
     3.7.2 azkaban 执行服器安装
         解压azkaban-executor-server-2.5.0.tar.gz
         命令:tar –zxvf /usr/local/ys/soft/azkaban-executor-server-2.5.0.tar.gz -C /usr/local/ys/app/azkaban
     将解压后的azkaban-executor-server-2.5.0 移动到 azkaban目录中,并重新命名 executor
   命令:mv azkaban-executor-server-2.5.0  ../azkaban
   cd ../azkaban
   mv azkaban-executor-server-2.5.0  executor

	3.7.3 azkaban脚本导入
		解压: azkaban-sql-script-2.5.0.tar.gz
		命令:tar –zxvf azkaban-sql-script-2.5.0.tar.gz
		将解压后的mysql 脚本,导入到mysql中:
		进入mysql
		mysql> create database azkaban;
		mysql> use azkaban;
		Database changed
		mysql> source /usr/local/ys/soft/azkaban-2.5.0/create-all-sql-2.5.0.sql;

	3.7.4 创建SSL配置
	参考地址: http://docs.codehaus.org/display/JETTY/How+to+configure+SSL
	命令: keytool -keystore keystore -alias jetty -genkey -keyalg RSA
	运行此命令后,会提示输入当前生成 keystor的密码及相应信息,输入的密码请劳记,信息如下(此处我输入的密码为:123456)
	输入keystore密码: 
	再次输入新密码:
	您的名字与姓氏是什么?
	[Unknown]: 
	您的组织单位名称是什么?
	[Unknown]: 
	您的组织名称是什么?
	[Unknown]: 
	您所在的城市或区域名称是什么?
	[Unknown]: 
	您所在的州或省份名称是什么?
	[Unknown]: 
	该单位的两字母国家代码是什么
	 [Unknown]:  CN
	CN=Unknown, OU=Unknown, O=Unknown, L=Unknown, ST=Unknown, C=CN 正确吗?
	[否]:  y
输入<jetty>的主密码(如果和 keystore 密码相同,按回车): 
再次输入新密码
完成上述工作后,将在当前目录生成 keystore 证书文件,将keystore 考贝到 azkaban web服务器根目录中.如:cp keystore azkaban/webserver

	3.7.5 配置文件
	注:先配置好服务器节点上的时区
	先生成时区配置文件Asia/Shanghai,用交互式命令 tzselect 即可
	拷贝该时区文件,覆盖系统本地时区配置
	cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime  

	3.7.6 azkaban web服务器配置
	进入azkaban web服务器安装目录 conf目录
	修改azkaban.properties文件
	命令vi azkaban.properties

内容说明如下:

*Azkaban Personalization Settings
azkaban.name=Test                           #服务器UI名称,用于服务器上方显示的名字
azkaban.label=My Local Azkaban                               #描述
azkaban.color=#FF3601                                                 #UI颜色
azkaban.default.servlet.path=/index                         #
web.resource.dir=web/                                                 #默认根web目录
default.timezone.id=Asia/Shanghai                           #默认时区,已改为亚洲/上海 默认为美国
 
*Azkaban UserManager class
user.manager.class=azkaban.user.XmlUserManager   #用户权限管理默认类
user.manager.xml.file=conf/azkaban-users.xml              #用户配置,具体配置参加下文
 
*Loader for projects
executor.global.properties=conf/global.properties    # global配置文件所在位置
azkaban.project.dir=projects                                                #
 
database.type=mysql                                                              #数据库类型
mysql.port=3306                                                                       #端口号
mysql.host=localhost                                                      #数据库连接IP
mysql.database=azkaban                                                       #数据库实例名
mysql.user=root                                                                 #数据库用户名
mysql.password=Root123456                                                        #数据库密码
mysql.numconnections=100                                                  #最大连接数
 
* Velocity dev mode
velocity.dev.mode=false
* Jetty服务器属性.
jetty.maxThreads=25                                                               #最大线程数
jetty.ssl.port=8443                                                                   #Jetty SSL端口
jetty.port=8081                                                                         #Jetty端口
jetty.keystore=keystore                                                          #SSL文件名
jetty.password=123456                                                             #SSL文件密码
jetty.keypassword=123456                                                      #Jetty主密码 与 keystore文件相同
jetty.truststore=keystore                                                                #SSL文件名
jetty.trustpassword=123456                                                   # SSL文件密码
 
* 执行服务器属性
executor.port=12321                                                               #执行服务器端
 
*邮件设置
mail.sender=xxxxxxxx@163.com                                       #发送邮箱
mail.host=smtp.163.com                                                       #发送邮箱smtp地址
mail.user=xxxxxxxx                                       #发送邮件时显示的名称
mail.password=**********                                                 #邮箱密码
job.failure.email=xxxxxxxx@163.com                              #任务失败时发送邮件的地址
job.success.email=xxxxxxxx@163.com                            #任务成功时发送邮件的地址
lockdown.create.projects=false                                           #
cache.directory=cache                                                            #缓存目录

		 3.7.7azkaban 执行服务器executor配置
		 进入执行服务器安装目录conf,修改azkaban.properties
		 vi azkaban.properties
*Azkaban
default.timezone.id=Asia/Shanghai                                              #时区
 
* Azkaban JobTypes 插件配置
azkaban.jobtype.plugin.dir=plugins/jobtypes                   #jobtype 插件所在位置
 
*Loader for projects
executor.global.properties=conf/global.properties
azkaban.project.dir=projects
 
*数据库设置
database.type=mysql                                                                       #数据库类型(目前只支持mysql)
mysql.port=3306                                                                                #数据库端口号
mysql.host=192.168.20.200                                                           #数据库IP地址
mysql.database=azkaban                                                                #数据库实例名
mysql.user=root                                                                       #数据库用户名
mysql.password=Root23456                                #数据库密码
mysql.numconnections=100                                                           #最大连接数
 
*执行服务器配置
executor.maxThreads=50                                                                #最大线程数
executor.port=12321                                                               #端口号(如修改,请与web服务中一致)
executor.flow.threads=30                                                                #线程数
	3.7.8用户配置
	进入azkaban web服务器conf目录,修改azkaban-users.xml
	vi azkaban-users.xml 增加 管理员用户

enter image description here

	3.7.9 web服务器启动
	在azkaban web服务器目录下执行启动命令
	bin/azkaban-web-start.sh
	注:在web服务器根目录运行
	或者启动到后台
	nohup  bin/azkaban-web-start.sh  1>/tmp/azstd.out  2>/tmp/azerr.out &

	3.7.10执行服务器启动

	在执行服务器目录下执行启动命令
	bin/azkaban-executor-start.sh
	注:只能要执行服务器根目录运行

	启动完成后,在浏览器(建议使用谷歌浏览器)中输入https://服务器IP地址:8443 ,即可访问azkaban服务了.在登录中输入刚才新的户用名及密码,点击 login

3.8 Zeppelin
参照如下文件:
http://blog.csdn.net/chengxuyuanyonghu/article/details/54915817
http://blog.csdn.net/chengxuyuanyonghu/article/details/54915962

3.9 HBase
	3.9.1解压
	tar –zxvf  /usr/local/ys/soft/hbase-0.99.2-bin.tar.gz  -C /usr/local/ys/app

	3.9.2重命名
	cd  /usr/local/ys/app
    mv hbase-0.99.2 hbase

	3.9.3修改配置文件
     每个文件的解释如下:
	hbase-env.sh
	export JAVA_HOME=/usr/local/ys/app/jdk1.7.0_80   //jdk安装目录
	export HBASE_CLASSPATH=/usr/local/ys/app/hadoop-2.6.4/etc/hadoop  //hadoop配置文件的位置
	export HBASE_MANAGES_ZK=false #如果使用独立安装的zookeeper这个地方就是false(此处使用自己的zookeeper)

hbase-site.xml

enter image description here

enter image description here

Regionservers    //是从机器的域名
Ys02
ys03
ys04

注:此处HBase配置是针对HA模式的hdfs

	3.9.4将Hadoop的配置文件hdfs-site.xml和core-site.xml拷贝到HBase配置文件中
	cp /usr/local/ys/app/Hadoop-2.6.4/etc/hadoop/hdfs-site.xml /usr/local/ys/app/hbase/conf
	cp /usr/local/ys/app/hadoop-2.6.4/etc/hadoop/core-site.xml /usr/local/ys/app/hbase/conf

	3.9.5发放到其他机器
	scp –r /usr/local/ys/app/hbase ys02: /usr/local/ys/app
	scp –r /usr/local/ys/app/hbase ys03: /usr/local/ys/app
	scp –r /usr/local/ys/app/hbase ys04: /usr/local/ys/app

	3.9.6启动
	cd  /usr/local/ys/app/hbase/bin
    ./ start-hbase.sh

	3.9.7查看
	进程:jps
	进入hbase的shell:hbase shell
	退出hbase的shell:quit
	页面:http://master:60010/ 

3.10KAfkaOffsetMonitor(Kafka集群的监控程序,本质就是一个jar包)

	3.10.1上传jar包
	略

3.10.2 运行jar包
nohup java -cp KafkaOffsetMonitor-assembly-0.2.1.jar com.quantifind.kafka.offsetapp.OffsetGetterWeb --zk ys01,ys02,ys04 --refresh 5.minutes --retain 1.day --port 8089 $

4. 集群调优

4.1 辅助工具尽量不安装到数据或者运算节点,避免占用过多计算或内存资源。

4.2 dataNode和spark的slave节点尽量在一起;这样运算的时候就可以避免通过网络拉取数据,加快运算速度。

4.3 Hadoop集群机架感知配置,配置之后可以使得数据在同机架的不同机器2份,然后其他机架机器1份,可是两台机器四台虚机没有必要配感知个人感觉。

4.4 配置参数调优
可以参考http://blog.csdn.net/chndata/article/details/46003399

第三阶段(辅助工具工学习阶段)

11)Sqoop(CSDN,51CTO ,以及官网)—20小时

enter image description here

  1. 数据导出概念介绍
  2. Sqoop基础知识
  3. Sqoop原理及配置说明
  4. Sqoop数据导入实战
  5. Sqoop数据导出实战、
  6. Sqoop批量作业操作

推荐学习博客:http://student-lp.iteye.com/blog/2157983
官网:http://sqoop.apache.org/

12)Flume(CSDN,51CTO ,以及官网)—20小时

enter image description here

  1. FLUME日志采集框架介绍。
  2. FLUME工作机制。
  3. FLUME核心组件。
  4. FLUME参数配置说明。
  5. FLUME采集nginx日志案例(案例一定要实践一下)

推荐学习博客:http://www.aboutyun.com/thread-8917-1-1.html
官网:http://flume.apache.org

13)Oozie(CSDN,51CTO ,以及官网)–20小时

enter image description here

  1. 任务调度系统概念介绍。
  2. 常用任务调度工具比较。
  3. Oozie介绍。
  4. Oozie核心概念。
  5. Oozie的配置说明。
  6. Oozie实现mapreduce/hive等任务调度实战案例。

推荐学习博客:http://www.infoq.com/cn/articles/introductionOozie
官网:http://oozie.apache.org/

14)Hue(CSDN,51CTO ,以及官网)–20小时

推荐学习博客:http://ju.outofmemory.cn/entry/105162
官网:http://gethue.com/

第四阶段(不断学习阶段)

每天都会有新的东西出现,需要关注最新技术动态,不断学习。任何一般技术都是先学习理论,然后在实践中不断完善理论的过程。

备注

1)如果你觉得自己看书效率太慢,你可以网上搜集一些课程,跟着课程走也OK 。如果看书效率不高就很网课,相反的话就自己看书。

2)企业目前更倾向于使用Spark进行微批处理,Storm只有在对时效性要求极高的情况下,才会使用,所以可以做了解。重点学习Spark Streaming。

3)快速学习的能力**、解决问题的能力沟通能力真的很重要。

4)要善于使用StackOverFlow和Google(遇到解决不了的问题,先Google,如果Google找不到解决方能就去StackOverFlow提问,一般印度三哥都会在2小时内回答你的问题)。

5)视频课程推荐:

可以去万能的淘宝购买一些视频课程,你输入“大数据视频课程”,会出现很多,多购买几份(100块以内可以搞定),然后选择一个适合自己的。个人认为小象学院的董西成和陈超的课程含金量会比较高。

####四、持续学习资源推荐

  1. Apache 官网(http://apache.org/)
  2. Stackoverflow(https://stackoverflow.com/)
  3. Github(https://github.com/)
  4. Cloudra官网(https://www.cloudera.com/)
  5. Databrick官网(https://databricks.com/)
  6. About 云 :http://www.aboutyun.com/
  7. CSDN,51CTO (http://www.csdn.net/,http://www.51cto.com/)
  8. 至于书籍当当一搜会有很多,其实内容都差不多。

####五、项目案例分析

1)点击流日志项目分析(此处借鉴CSDN博主的文章,由于没有授权,所以就没有贴过来,下面附上链接)----批处理

http://blog.csdn.net/u014033218/article/details/76847263

2)Spark Streaming在京东的项目实战(京东的实战案例值得好好研究一下,由于没有授权,所以就没有贴过来,下面附上链接)—实时处理
http://download.csdn.net/download/csdndataid_123/8079233

最后但却很重要一点:每天都会有新的技术出现,要多关注技术动向,持续学习。

以上内容不保证一年以后仍适用。

【推荐相关图书】

  1. 《数据库可靠性工程:数据库系统设计与运维指南 》
  2. 《SQL必知必会》
  3. 《大数据项目管理:从规划到实现 》
  4. 《Spark高级数据分析》
  5. 《数据科学入门》

在这里插入图片描述

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

当我说要做大数据工程师时他们都笑我,直到三个月后…… 的相关文章

  • NOA上车「清一色」自主品牌,哪些供应商正在突围前线

    随着入门级L2进入普及周期 xff0c 以NOA xff08 高速 城区 xff09 为代表的L2 43 L2 43 43 赛道 xff0c 正在成为主机厂 硬件供应商 算法及软件方案商的下一波市场制高点的争夺阵地 高工智能汽车研究院监测数
  • 【STM32-初始化的时候是如何通过结构体给寄存器赋值的?】

    使用的是正点原子的源码 xff0c 一直没有搞明白初始化的时候是怎么给相关的寄存器赋值的 xff0c 今天琢磨了一下 xff1a 首先 xff0c 创建了一个GPIO InitTypeDef类型的结构体变量GPIO InitStructur
  • 多元建模基础(二):正态混合分布

    1 正态方差混合模型 xff1a 1 xff09 定义 xff1a 称 显然 xff0c xff0c 混合分布中 xff0c 由W的分布确定一组权值 xff0c 混合变量W可以被解释为来自新信息并影响所有风险因子波动性的扰动 位置向量和分散
  • 神经RRT*:基于学习的最优路径规划 翻译+总结

    摘要 xff1a 快速随机探索树 xff08 RRT xff09 及其变体由于能够快速有效地探索状态空间而非常流行 然而 xff0c 它们对初始解很敏感 xff0c 收敛到最优解的速度很慢 xff0c 这意味着它们需要消耗大量内存和时间来找
  • 解决 Windows has triggered a breakpoint in Linkage.exe问题

    这两天在做一个小项目 xff0c 里面有多线程的东东 xff0c 在调试的时候 总是遇到 Windows has triggered a breakpoint in Linkage exe 的错误 现在将这个问题和大家分享一下 前提是这样的
  • 写一个简单的爬虫,可直接复制学习!!

    简单爬虫直面代码 xff0c 可直接复制学习 这个代码的作用主要是用来获取到百度首页的数据 xff0c 只用来供理解学习 真 小白 福利 todo 首先导包requests 用于爬取数据 import requests todo 定义你要爬
  • Dataloader类

    Dataset让我们可以知道数据在什么位置 xff0c 及数据的的索引对应的数据 Dataloader相当于加载器 xff0c 把数据加载到神经网络中 import torchvision 测试数据集 xff0c train设置为false
  • 如何把截图固定在电脑页面上

    如果我们给人讲网课课 xff0c 或者汇报的时候想把公式 xff0c 定理 xff0c 图片等放在醒目位置做对比 那么我们可能需要把截图放在别的文件的页面上 xff0c 那么我们要怎么做呢 xff1f 方法一 xff1a 利用QQ截图功能
  • 如何写好一个算法

    写出算法有一个比较通用的方法论 xff0c 步骤如下 xff1a 1 理解问题 先弄清楚具体要解决什么问题 做成怎样的程度就可以满足问题需要 xff1f 是需要精确值还是近似值 xff1f 2 分析问题 用数学思路去描述问题的求解过程 3
  • python如何读取txt里面的数据

    当我们在用python时可能会遇到想要把txt文档里的数据读取出来然后进行绘图 xff0c 那么我们要怎么才能够将txt里的数据读取出来呢 xff1f 假设有txt文本如下 xff1a 想要把上述文本数据读取出来 xff0c 可以用以下方法
  • MATLAB读取数据(txt|excel)并绘图

    最近做了实验 xff0c 要绘图进行比较 xff0c 网上百度搜索搞了很久 xff0c 终于搞定了 写个文章记录一下 废话不多讲 xff0c 咱们步入正题 以下是以txt文档为例进行的绘图 xff0c 如果用excel更加简单 道理都是一样
  • 如何用电脑自带的软件录屏

    有时候想要用电脑录屏 xff0c 但是电脑又没有录屏软件 xff0c 那我们有没有办法进行录屏呢 xff1f 可以借助 游戏 设置进行录屏哦 xff01 本人电脑 xff1a win10系统 1 点击桌面左下角windows图标 xff0c
  • 如何设置电脑锁屏后程序仍在运行

    最近在跑代码的时候 xff0c 回去午睡后过来打开电脑发现程序没跑 发现电脑锁屏后程序不再运行了 xff0c 重新将电脑设置锁屏后仍运行 xff0c 如下 xff1a 1 同时按下win 43 R 打开 运行 界面 2 输入control
  • Latex文献引用显示?解决

    最近在写论文的时候 xff0c 发现执行latex时应该显示的文献号变成 xff1f 号了 按照网上的多种方法还没解决好 解决文献引用问题主要有以下方法 xff1a 1 end document 的语句位置问题 执行文件之所以没有找到bib
  • 有些参考文献找不到页码和期号怎么解决?

    在我们撰写论文时不论是查找下载期刊文献资料还是编辑参考文献都会需要知道该期刊论文的期卷号 xff0c 那么 xff0c 期刊论文的期卷号怎么找呢 xff1f 下面小编就介绍几种论文期卷号的查找方法 xff08 注 xff1a 文中所用的检索
  • CUDA入门(一)

    最近我也都在看CUDA xff0c 自己看书和练习也都搞了一个月了 而且经常在CSDN上逛 xff0c 也发现了很多问题 xff0c 所以决定自己写点这方面的东西 xff0c 方便自己也方便后来人 根据我的调查 xff0c 我发现现在的初学
  • 如何在excel多条件筛选

    最近在报名各种考试 xff0c 发现表格里的职位一大堆 xff0c 条件也一大堆 一个个找找的头都大了 经过多方查找和同学 xff08 CC xff09 的帮助 xff0c 终于成功学会了怎么多条件筛选 浅浅记录一下 xff1a 比如在一张
  • MTLAB读取数据并计算平均值

    当想从matlab里面读取excel表格的某一列进行计算时 xff0c 可以进行如下操作 1 读取excle表格里的数据 xff0c 具体操作见文章MATLAB读取数据 xff08 txt excel 并绘图 matlab读取数据并绘图 沉
  • word表格如何令文字上下居中

    第一步 xff1a 在word文档中插入需要的表格 xff0c 如图所示 第二步 xff1a 如下图所示 xff0c 单击红色圆圈标记的图标 xff0c 表格被全部选中 xff0c 如图所示 第三步 xff1a 在表格中 xff0c 单击鼠
  • 键盘打字时,打一个字后面少一个字如何解决

    键盘敲字时 xff0c 如果光标在中间 xff0c 输入一个字后面就少一个字 文字输入的例子 只需要按INS 键就可以恢复正常了 注 xff1a 如果是手提笔记本电脑 xff0c 一个键盘有两下两行 xff0c 先按一下FN 按键 xff0

随机推荐

  • 教你如何开发VR游戏系列教程五:UI 交互

    原文链接 xff1a 欢迎关注AR学院 上一篇介绍了ugui NGUI 以及普通3D模型的UI设计 这一讲主要介绍怎么样利用这些UI做交互 大家在VR游戏看到的UI以及UI交互 xff0c 主要有哪几种 xff1f 1 头控悬停 xff08
  • 顶会论文集--ICRA2020

    转自 https blog csdn net spacegene article details 107458141 utm medium 61 distribute pc relevant none task blog title 3 a
  • 机器人学习--Gazebo学习--sdf文件、urdf和xacro文件

    供学习使用 xff1a 参考 xff1a https blog csdn net lxlong89940101 article details 93486875 utm medium 61 distribute pc relevant no
  • 多传感器数据融合简介(转)

    转自知乎网友 xff1a 多传感器融合 xff08 算法 xff09 综述 知乎 多传感器融合 xff08 Multi sensor Fusion MSF xff09 是利用计算机技术 xff0c 将来自多传感器或多源的信息和数据以一定的准
  • 动态SLAM

    动态SLAM快速入门 xff08 原理介绍及经典算法 xff09 https mp weixin qq com s biz 61 MzU1NjEwMTY0Mw 61 61 amp mid 61 2247520976 amp idx 61 1
  • 经典编程问题(13)汉诺塔

    背景 汉诺塔 xff0c 又称河内塔 hanoi xff0c 源于印度古老的传说 该传说中要求在三个柱子间移动金质的圆盘 xff0c 规则是 xff1a 每次只能移动一个盘子大盘子不能放在小盘子的上方开始的时候 xff0c 在某根柱子上有
  • 2011年终总结——思路

    By Alpha G wu 又是一年的尽头 xff0c 对于本人来说 xff0c 不是老了一岁 xff0c 而是又长大了一岁 每一天的自己都是一个fresh的自己 xff0c 更别说一年的变化有多大 xff0c 大到甚至连你自己都察觉不出来
  • win10下完美安装ubuntu使用docker容器

    期待以久的windows 10支持ubuntu版本更新终于发布了 xff0c 怀着期待的心情 xff0c 下载更新到2004版本 xff08 设置 gt 关于中查看 xff09 如果版本较低 xff0c 可以使用win10更新包提示 xff
  • 学习ing

    分治算法 一 基本概念 在计算机科学中 xff0c 分治法是一种很重要的算法 字面上的解释是 分而治之 xff0c 就是把一个复杂的问题分成两个或更多的相同或相似的子问题 xff0c 再把子问题分成更小的子问题 直到最后子问题可以简单的直接
  • C语言中字符串相关操作函数

    长度 strlen size t strlen const char str 功能 xff1a 返回字符串长度 strnlen size t strnlen const char str size t maxlen 功能 xff1a 返回字
  • s3c2440之串口

    1 xff1a s3c2440串口概述 s3c2440A 通用异步接收器和发送器 xff08 UART xff09 提供了三个独立的异步串行I O xff08 SIO xff09 端 口 xff0c 每个端口都可以在中断模式或DMA模式下操
  • 《layui宇宙版教程》:日期和时间组件laydate

    Layui宇宙版教程 提供2000人的QQ群进行交流学习 xff0c QQ群号 xff1a 1046961650 xff0c 或通过手机QQ扫描二维码进入 xff1a 1 19 日期和时间组件laydate 主要以年选择器 年月选择器 日期
  • 关于/etc/init.d/rcS not found的解决方法

    进入rescue模式 xff0c 选择root 输入命令 lt pre name 61 34 code 34 class 61 34 cpp 34 gt mount o remount rw touch etc init d rc vim
  • 飞马D200S无人机与机载激光雷达在大比例尺DEM建设中的应用

    摘要 本文基于飞马D200S无人机搭载RIEGLmini210激光雷达获取46 7km2的点云数据制作1 500DEM 首先根据测区面积大 xff0c 飞马无人机管家智航线模块自动划分航摄分区过多的情况 xff0c 调整航线长度以减少航摄分
  • 2023RSAC创新沙盒大赛十强公布,软件供应链与开源软件安全再成焦点

    近日 xff0c 2023RSAC大会公布了第18届RSAC创新沙盒竞赛的决赛 十强企业 软件安全企业Endor Labs成功入围 xff0c 软件供应链安全和开源安全问题再次成为国际焦点 Endor Labs提供了一个可依赖的生命周期管理
  • 如何找到现有研发体系的「内耗问题」?| 谈效风生

    第3期 xff1a 如何找到现有研发体系的 内耗问题 xff1f 在上一期 谈到提升效能 xff0c 我们应该如何下手 xff1f 我们聊到开始做研发效能的四个要点 xff1a 评估现有流程 引入自动化工具 建立度量指标 持续改进 本期就围
  • Ubuntu 18之vnc连接不上问题(已解决)

    在配置vnc时所以的准备动作已经准备好了 xff0c 该配的文件也配好了 xff0c 但就是一直连接不上 在主机端报time out的错误 xff0c 后来查百度得知vncserver xff1a 1对应5901端口 xff0c 2就是59
  • 「自动化」聊起来简单,做起来难 | 谈效风生

    第4期 xff1a 自动化 聊起来简单 xff0c 做起来难 在上一期 如何找到现有研发体系的 内耗问题 中 xff0c 我们聊了评估现有研发体系 xff0c 正确的找到 体系内耗问题 xff0c 是改变研发体系的第一步 本期我们继续聊下一
  • GitChat·前端 | 从软件工程角度看大前端技术栈

    GitChat 作者 xff1a 韩亦乐 前言 我们都知道 xff0c 大学几乎是没有 Web 前端课的 以我所在的大学为例 xff0c 唯一引导我们了解 JavaScript 的也只是 人机界面 和 Web应用开发 选修课 再者 xff0
  • 当我说要做大数据工程师时他们都笑我,直到三个月后……

    作者 xff1a Fickr孫啟誠 原文 xff1a 三个月大数据研发学习计划实战解析 关注微信公众号 xff1a GitChat 技术杂谈 一本正经的讲技术 不要错过文末彩蛋 申明 xff1a 本文旨在为普通程序员 xff08 Java程