(1)本周做了什么,花在学习上多长时间,花在代码时间上多长时间,花在解决问题用了多长时间。
大数据基础方面的学习,规划了学习路线
学习路线 (1)Java基础和Linux基础 (2)Hadoop的学习:体系结构、原理、编程
(*)第一阶段:HDFS、MapReduce、HBase(NoSQL数据库)
(*)第二阶段:数据分析引擎 ---> Hive、Pig
数据采集引擎 ---> Sqoop、Flume
(*)第三阶段:HUE:Web管理工具
ZooKeeper:实现Hadoop的HA
Oozie: 工作流引擎
(3)Spark的学习
(*)第一个阶段:Scala编程语言
(*)第二个阶段:Spark Core-----> 基于内存,数据的计算
(*)第三个阶段:Spark SQL -----> 类似Oracle中的SQL语句
(*)第四个阶段:Spark Streaming ---> 进行实时计算(流式计算):比如:自来水厂
(4)Apache Storm:类似Spark Streaming ---> 进行实时计算(流式计算):比如:自来水厂 (*)NoSQL:Redis基于内存的数据库
学习上 | 代码 | 解决问题 | |
时间(天) | 2 | 1 | 2 |
(2)下周准备做什么?
继续自己的学习计划。
(3)本周遇到的问题?
未接触过的专业术语甚多,需要很多时间慢慢去学习。