目录

  • 1 第01章.hadoop开发技术
    1. 1.Hadoop起源介绍

      00:21:41

    2. 2.Hadoop生态圈介绍

      00:12:00

    3. 3.Hadoop基本组件介绍

      00:15:44

    4. 4.Hadoop组成框架介绍

      00:11:36

    5. 5.SSH免密码登录以及JDK安装

      00:17:16

    6. 6.Hadoop安装1

      00:19:15

    7. 7.Hadoop安装2

      00:24:34

    8. 8.Eclipse环境搭建

      00:12:24

    9. 9.HDFS组件及备份机制介绍

      00:17:25

    10. 10.HDFS读写文件流程介绍

      00:13:43

    11. 11.shell命令介绍1

      00:18:52

    12. 12.shell命令介绍2

      00:14:33

    13. 13.shell命令介绍3

      00:22:53

    14. 14.shell命令介绍4

      00:11:52

    15. 15.HDFS api介绍1

      00:27:15

    16. 16.HDFS api介绍2

      00:26:16

    17. 17.HDFS api介绍3

      00:20:42

    18. 18.HDFS新特性介绍

      00:22:23

    19. 19.YARN组件介绍

      00:20:42

    20. 20.YARN框架上job执行流程介绍

      00:22:05

    21. 21.YMR编程模型总体介绍

      00:26:02

    22. 22.Shuffle阶段Map端执行流程介绍

      00:24:10

    23. 23.Shuffle阶段Reduce端执行流程介绍

      00:23:45

    24. 24.WordCount案例总体介绍

      00:06:23

    25. 25.WordCountMapper类编写

      00:13:03

    26. 26.WordCountReducer和WordCountRunner类编写

      00:16:27

    27. 27.WordCountRunner运行测试

      00:18:58

    28. 28.MapReduce中数据类型介绍

      00:07:29

    29. 29.MapReduce中自定义数据类型介绍

      00:18:42

    30. 30.Hadoop序列化和Java序列化的区别

      00:20:19

    31. 31.自定义InputFormat1

      00:13:53

    32. 32.自定义InputFormat2

      00:19:17

    33. 33.自定义InputFormat3

      00:24:08

    34. 34.内置OutputFormat介绍

      00:18:28

    35. 35.自定义OutputFormat类1

      00:16:17

    36. 36.自定义OutputFormat类2

      00:16:21

    37. 37.案例介绍以及Mapper类的编写

      00:20:16

    38. 38.Reducer以及Runner类的编写

      00:20:17

    39. 39.运行测试

      00:14:49

    40. 40.Shuffle组件Partitioner自定义介绍

      00:17:11

    41. 41.Shuffle组件Combiner以及Grouping自定义介绍

      00:24:47

    42. 42.二次排序实现1

      00:17:54

    43. 43.二次排序实现2

      00:22:23

    44. 44.顺序式MR组合任务介绍

      00:21:33

    45. 45.依赖关系组合式MR任务介绍

      00:21:56

    46. 46.链式MR任务介绍

      00:26:35

    47. 47.MapSideJoin介绍

      00:17:33

    48. 48.ReduceSideJoin介绍

      00:26:25

    49. 49.半连接介绍

      00:21:37

    50. 50.倒排索引实现1

      00:28:18

    51. 51.倒排索引实现2

      00:20:03

    52. 52.倒排索引实现3

      00:17:23

    53. 53.倒排索引实现4

      00:11:56

    2 第02章.zookeeper开发技术
    1. 1.Zookeeper体系结构

      00:20:42

    2. 2.Zookeeper数据模型

      00:12:26

    3. 3.Zookeeper节点特性

      00:14:56

    4. 4.Zookeeper安装1

      00:15:47

    5. 5.Zookeeper安装2

      00:18:44

    6. 6.Zookeeper Shell命令

      00:26:59

    7. 7.Zookeeper Java API介绍1

      00:28:33

    8. 8.Zookeeper Java API介绍2

      00:16:37

    9. 9.Zookeeper Java API介绍3

      00:19:33

    10. 10.Zookeeper Java API介绍4

      00:24:18

    11. 11.DistributedLock编码实现1

      00:25:18

    12. 12.DistributedLock编码实现2

      00:21:24

    13. 13.DistributedLock编码实现3

      00:16:07

    14. 14.DistributedLock测试

      00:32:09

    3 第03章.hbase开发技术
    1. 1.HBase伪分布式安装

      00:24:33

    2. 2.HBase数据模型介绍

      00:29:27

    3. 3.HBase伪分布式安装1

      00:18:45

    4. 4.HBase伪分布式安装2

      00:21:01

    5. 5.HBase Shell命令1

      00:24:03

    6. 6.HBase Shell命令2

      00:31:20

    7. 7.HBase Shell命令3

      00:18:03

    8. 8.HBaseAdmin API介绍1

      00:22:54

    9. 9.HBaseAdmin API介绍2

      00:22:48

    10. 10.HTable API介绍1

      00:17:45

    11. 11.HTable API介绍2

      00:19:04

    12. 12.HTable API介绍3

      00:16:45

    13. 13.Scan Filter详细介绍

      00:25:51

    14. 14.HBase数据库连接池介绍

      00:13:09

    15. 15.HBase协处理器介绍

      00:19:56

    16. 16.HBase Observer协处理器自定义实现

      00:21:53

    17. 17.HBase自定义协处理器测试

      00:24:50

    18. 18.HBase和MR整合

      00:17:24

    19. 19.MR代码实现1

      00:16:48

    20. 20.MR代码实现2

      00:18:43

    4 第04章.hive开发技术
    1. 1.Hive起源、体系结构介绍

      00:20:36

    2. 2.Hive安装模式介绍以及MySQL安装

      00:18:58

    3. 3.Hive安装

      00:24:09

    4. 4.Hive Shell命令1

      00:28:36

    5. 5.Hive Shell命令2

      00:19:38

    6. 6.Hive Shell命令3

      00:22:20

    7. 7.Hive Shell命令4

      00:13:06

    8. 8.Hive Shell命令1

      00:31:11

    9. 9.Hive Shell命令2

      00:25:21

    10. 10.Hive Shell命令3

      00:22:29

    11. 11.Hive UDF自定义函数实现

      00:24:23

    12. 12.Hive UDAF自定义函数实现1

      00:15:12

    13. 13.Hive UDAF自定义函数实现1

      00:17:39

    14. 14.Hive UDTF自定义函数实现

      00:17:49

    5 第05章.hue开发技术
    1. 1.Hue安装1

      00:18:47

    2. 2.Hue安装1

      00:18:26

    3. 3.Hue使用案例1

      00:21:01

    4. 4.Hue使用案例2

      00:23:58

    6 第06章.Oozie开发技术
    1. 1.Oozie简介

      00:25:02

    2. 2.Tomcat安装

      00:07:37

    3. 3.Oozie安装1

      00:24:25

    4. 4.Oozie安装2

      00:10:17

    5. 5.Oozie工作流编写规则介绍

      00:22:58

    6. 6.Workflow案例1

      00:23:04

    7. 7.Workflow案例2

      00:28:05

    8. 8.Workflow案例3

      00:16:47

    9. 9.Coordinator案例

      00:21:26

    10. 10.Oozie Java客户端介绍1

      00:22:22

    11. 11.Oozie Java客户端介绍2

      00:31:20

    12. 12.Oozie与Hue整合讲解1

      00:21:19

    13. 13.Oozie与Hue整合讲解2

      00:25:21

    7 第07章.Flume开发技术
    1. 1.Flume介绍1

      00:26:35

    2. 2.Flume介绍2

      00:19:05

    3. 3.Flume案例介绍1

      00:17:44

    4. 4.Flume案例介绍2

      00:11:58

    5. 5.Flume案例介绍3

      00:25:18

    6. 6.Flume案例介绍4

      00:21:23

    7. 7.Flume案例介绍1

      00:31:40

    8. 8.Flume案例介绍2

      00:31:30

    9. 9.Flume Source自定义实现1

      00:21:49

    10. 10.Flume Source自定义实现2

      00:17:32

    11. 11.Flume Source自定义实现3

      00:17:52

    12. 12.Flume Source自定义实现4

      00:14:00

    13. 13.Flume Channel&Sink接口结构介绍

      00:19:15

    14. 14.Flume Source接口结构介绍

      00:18:25

    15. 15.Flume Interceptor介绍

      00:14:53

    16. 16.Flume log4j Interceptor案例实现

      00:18:40

    17. 17.Flume Interceptor自定义实现1

      00:16:19

    18. 18.Flume Interceptor自定义实现2

      00:20:35

    8 第08章.Sqoop开发技术
    1. 1.Sqoop安装介绍1

      00:18:08

    2. 2.Sqoop安装介绍2

      00:17:22

    3. 3.Sqoop案例1

      00:22:06

    4. 4.Sqoop案例2

      00:27:04

    5. 5.Sqoop案例3

      00:27:30

    6. 6.Sqoop案例1

      00:24:27

    7. 7.Sqoop案例2

      00:16:53

    9 第09章.Kafka开发技术
    1. 1.Kafka介绍

      00:26:41

    2. 2.Kafka安装

      00:29:21

    3. 3.Kafka案例介绍1

      00:20:52

    4. 4.Kafka案例介绍2

      00:17:03

    5. 5.Kafka案例介绍3

      00:31:44

    10 第10章.MR扩展开发技术
    1. 1.最短路径算法实现1

      00:23:40

    2. 2.最短路径算法实现2

      00:21:34

    3. 3.最短路径算法实现3

      00:20:28

    4. 4.最短路径算法实现4

      00:34:23

    5. 5.PageRank算法实现1

      00:28:06

    6. 6.PageRank算法实现2

      00:16:20

    7. 7.PageRank算法实现3

      00:26:44

    8. 8.PageRank算法实现4

      00:14:52

    9. 9.PageRank算法实现5

      00:21:55

    10. 10.社交好友推荐算法实现1

      00:13:24

    11. 11.社交好友推荐算法实现2

      00:16:46

    12. 12.社交好友推荐算法实现3

      00:18:43

    13. 13.社交好友推荐算法实现4

      00:11:58

    14. 14.社交好友推荐算法实现5

      00:18:25

    15. 15.Flume TailDir Source简介与源码下载

      00:23:32

    16. 16.Flume TailDir Source源码编译

      00:23:04

    17. 17.Flume TailDir Source案例

      00:29:14

    18. 18.数据简单HBase序列化案例

      00:32:20

    19. 19.自定义数据HBase序列化代码实现

      00:32:42

    20. 20.自定义数据HBase序列化案例

      00:20:22

大数据挖掘&分析师之硬技能-Hadoop生态圈技术光速入门

1026人在学
公众号二维码

公众号

小程序二维码

小程序

课程详情

我要提问

 

Hadoop是大数据处理的入门,通过学习hadoop我们可以了解到在实际的生成环境中使用大数据工具处理大规模数据问题。通过学习hadoop生态圈的相关知识,我们能够为更加深入学习大数据处理的相关知识提供一定的基础。大数据在电商、金融、电信、医疗、旅游等各个领域用途非常广泛,因为这些领域会有大量的数据需要处理,此时hadoop就成为了首要之选。

 

讲师本人之前在电商、旅游、金融等方面做软件的时候,大多采用hadoop作为基础的大数据平台之选,并且积累了一些学习hadoop相关知识的技能点,特意整理成为视频,供大家学习hadoop的相关知识。本项目所涉及到的代码全程手敲,适合有一定java、linux知识基础,并希望学习hadoop大数据处理的学员来学习该视频,当然课程中的知识点不仅仅涉及到hadoop的基础,也涉及到hadoop的一些相关自定义实现等知识,最终希望新手通过该视频对hadoop有一定的了解,也希望老手能够通过这些视频更加进一步的认识到hadoop中的一些相关知识,最后预祝每位学员成为大数据领域的一个技术能手。

 


 

1.课程研发环境


JDK版本: jdk7

开发工具:eclipse

Linux版本:centos 6.0

虚拟机:Visual box

Hadoop生态圈相关环境:CDH 5.3.6版本 

 

2.内容简介


本课程从基础的环境搭建到更深入的知识学习都会有一个比较好的讲解。帮助学员快速上手hadoop生态圈的大数据处理框架的使用,使用hadoop生态圈进行一些模块化、项目功能化的开发,主要包括安装部署hadoop、hive、hbase、hue、oozie、flume等生态圈相关软件环境的搭建,并且在已搭建好的环境上进行相关知识点的讲解和功能的开发。项目/模块主要涉及到使用MR开发相关实际业务功能,包括最短路径的计算、社交好友推荐算法实现、分布式锁的实现等,这些模块可以在实际的生成环境中使用到,可以很简单的将这些模块的代码直接集成到相关实际生产环境代码中。   

 


 

Gerry老师:三年大数据开发工作经验,从事过电商、旅游、金融等相关大数据处理项目,对大数据的处理有一定的自我认识,另外对以hadoop为核心的大数据处理框架有比较深入的了解,对以hadoop、hbase、hive、oozie等为核心的离线数据处理有一定的知识技能的积累。主要涉及到的项目有:

 


1.BI报表项目:自动将mysql、oracle、log4j日志等各个数据源的数据导入到hdfs,并提供组件进行数据分析,最终导出用户需要的报表;

2. 用户行为日志离线分析系统:基于收集到的用户浏览行为数据进行数据分析展示。

3. 用户画像系统:给用户进行标签定义、根据用户标签和用户访问历史进行精准推荐、给特定用户标签的用户赋予特定的优惠政策、基于用户标签进行”反黑”操作

 


 

一、hadoop: 


第一讲:Hadoop起源、体系结构以及生态圈介绍

第二讲:Hadoop安装

第三讲:Windows平台下Eclipse环境搭建

第四讲:HDFS体系结构

第五讲:HDFS SHELL API介绍

第六讲:HDFS Java API介绍

第七讲:Hadoop 2.x HDFS新特性

第八讲:YARN体系结构

第九讲:MR编程模型介绍

第十讲:Map-Reduce编程实例:WordCount

第十一讲:MR数据类型讲解

第十二讲:MR输入格式讲解

第十三讲:MR输出格式讲解

第十四讲:案例:自定义输入、输出格式使用

第十五讲:MR Shuffle组件讲解

第十六讲:案例:二次排序

第十七讲:组合MR任务介绍

第十八讲:MR任务多数据源连接介绍

第十九讲:案例:倒排索引

 

二、zookeeper: 


第二十讲:Zookeeper起源、体系结构介绍

第二十一讲:Zookeeper安装

第二十二讲:Zookeeper Shell命令

第二十三讲:Zookeeper Java API

第二十四讲:Zookeeper案例:分布式环境中实现共享锁

 

三、hbase: 


第二十五讲:HBase起源、体系结构以及数据模型介绍

第二十六讲:HBase安装

第二十七讲:HBase Shell命令

第二十八讲:HBase Java API

第二十九讲:HBase协处理器介绍

第三十讲:HBase和MapReduce整合

第三十一讲:HBase案例:二级索引的创建

 

四、hive:

第三十二讲:Hive起源、体系结构介绍

第三十三讲:Hive安装

第三十四讲:Hive Shell命令上

第三十五讲:Hive Shell命令下

第三十六讲:Hive函数

 

五、hue: 


第三十七讲:Hue简介

 

六、Oozie: 


第三十八讲:Oozie简介

第三十九讲:Oozie安装

第四十讲:Oozie案例

第四十一讲:Oozie Java客户端

第四十二讲:Oozie Hue整合

 

七、Flume: 


第四十三讲:Flume介绍以及安装

第四十四讲:Flume案例介绍上

第四十五讲:Flume案例介绍下

第四十六讲:Flume自定义Source

第四十七讲:Flume自定义Interceptor

 

八、Sqoop: 


第四十八讲:Sqoop介绍与安装

第四十九讲:Sqoop案例介绍上

第五十讲:Sqoop案例介绍下

 

九、Kafka: 


第五十一讲:Kafka介绍与安装

第五十二讲:Kafka案例

 

十、MR扩展: 


第五十三讲:MapReduce案例:最短路径算法

第五十四讲:MapReduce案例:PageRank算法

第五十五讲:MapReduce案例:社交好友推荐算法

第五十六讲 Flume taildir source

第五十七讲 Flume HBase集成

 



 

 

 

 

 

 

目标一. 了解Hadoop生态圈环境搭建,主要包括:hadoop、hbase、hive、zookeeper、hue、flume、flume、oozie、kafka等。

 

目标二. 可以让学员对hadoop解决问题有一定的了解

 


目标三. 可以让学员掌握各个hadoop生态圈组件之间的整合有一个了解

 

目标四. 通过对各个模块的专门学习,让学员对hadoop生态圈的各个部分有一定比较深入的了解

 

目标五. 通过完整的学习,能够让学员对hadoop生态圈的知识有一个初步的了解

 


 

亮点一、hadoop采用当前比较热的版本cdh5.3.6,如此版本的框架在最近一到两年是一个比较常用的技术,不会出现一个落后的情况 

 

亮点二、理论与实战结合,由浅入深。即介绍到基础知识,比如环境的搭建,也介绍到在环境/框架之上进行自定义实现的功能完成,同时讲解过程中给学生留下思考的时间。

 

亮点三、课程绝大多数代码均是一行一行手工敲入,手把手一步步带领学员进入hadoop处理的大数据殿堂

 

亮点四、对hadoop、flume等各个软件的各个组件都有一个自定义实现,并介绍到在实际环境中介绍这些组件的应用。

 

 

1.课程针对人群

本课程针对具有一定的java基础和linux基础的学员,并且想通过本项目的学习,了解hadoop的相关项目,了解大数据项目的正常开发这类的学员,也适合有志于大数据开发的hadoop开发工程师岗位的学员。  

 

2.我该怎么学,如何才能学好这门课程,给些建议。


2.1、时间上的安排建议

本课程共55讲,如果您时间上充分,建议以每天4-5讲的进度往前学习。如果您时间不充分,建议至少每天学习一讲的内容。 

2.2、学习要求

如果您没有基础,建议还是中规中矩的按照课程进度一点一点仔细观看学习,并一定要把看完的视频中的代码自己手敲一遍,以加深理解和记忆

如果您有基础,可不必按步就搬进行,可以拿你感兴趣的部分去学习,但一定要注意实践,并学会举一反三 

2.3、讲师建议

1.最好看完视频之后,抛开视频,独立自己去把上课中的示例写一遍,看自己是否理解,如果不正确,可以回过头看再看下视频,如果反复,达到真正理解和熟练掌握的目的。

2.对于项目实战部分,一定要自己亲自动手做一遍,不要满足听完就OK了

3. 建议一般听视频,一般拿个纸和笔,做一些记录和笔记,这是一种非常好的学习习惯。

4. 一定不要过于依赖视频,要学会看API、使用百度、google等搜索引擎并且学会从对应官网的帮助文档中学习一些相关知识,学会思考,学会举一反三

5. 最后祝您学有所成

 

 

课程是属于某个特定的专业技术,掌握该技术后,你可以从事以下职位的相关工作

1.大数据开发工程师

2.Java软件开发工程师


评价(0) 立即评论
0/150