一、Storm项目
1. 架构
javasdk -> nginx -> 日志文件 -> flume agent(collector) -> hdfs
-> kafka -> storm -> hbased
kafka吞吐量达,可以被不同的消费者重复消费
2. 项目需求
电商
用户提交订单并且成功支付
收集订单详情
分析:
(1)每天(每小时、每分钟)电商网站的总销售额、订单笔数
(2)基于地域(国家、省份、城市)、时段
(3)从客户角度,统计客户消费情况
(4)客户在电商网站消费行为,客户流失趋势
3. 技术框架
Storm Trident
准确度,批次
4. 实现
1)从kafka上读取数据
Trident kafkaspout
TransactionalTridentKafkaSpout:
消息处理失败重试:只能在之前的批次内进行重试,而且如果一直不成功,将会挂起Storm任务应用程序
OpaqueTridentKafkaSpout:
提供容错机制
处理失败的消息可以在其他批次内进行重试,但是只会被成功处理一次。
exactly-once 有且只有一次。
select sum(price), count(1), date
from 订单记录表
group by date
分组统计:
(1)直接进行全局统计(跨网络数据传输)
(2)先在同一批次个分区内进行局部统计(不需要进行跨网络传输),然后对局部统计好的结果进行全局统计。
group by
partitionAggregate 局部统计
persistentAggregate 全局统计
5. 使用HBase数据库进行存储统计结果状态
rowkey value:
NON-TRANSACTIONAL 统计值
TRANSACTIONAL BATCH_ID 统计值
OPAQUE TRANSACTIONAL BATCH_ID 统计值,上个批次的统计值
作业:
从客户角度,统计客户消费情况
使用trident,统计分析订单记录,求出客户每天、每小时的消费总额,消费笔数(要求使用HBase存储统计结果,能够通过drpc客户端查询)。
拓展学习:
JStorm
二、回顾
storm两条线
storm
Topology
Trident
Tuple 数据流格式 Tuple keyvalue对的集合
Storm流计算本质: 对Tuple进行各种转换操作
普通Storm,转换操作写在Bolt中,msgtimeout 30秒
Trident 抽象成各种operation
Tuple Tree:启用消息可靠性保障机制后才会产生。
Spark: RDD RDD弹性分布式数据集 集合
cloudera manager 如何安装
8 6 6 20G内存
8 4 4
旅游数据离线分析 3天
scala
spark 5天 项目3天