• Storm简介及使用


    一、Storm概述
        网址:http://storm.apache.org/
        Apache Storm是一个免费的开源分布式实时计算系统。Storm可以轻松可靠地处理无限数据流,实现Hadoop对批处理所做的实时处理。Storm非常简单,可以与任何编程语言一起使用,并且使用起来很有趣!
        Storm有许多用例:实时分析,在线机器学习,连续计算,分布式RPC,ETL等。风暴很快:一个基准测试表示每个节点每秒处理超过一百万个元组。它具有可扩展性,容错性,可确保您的数据得到处理,并且易
    于设置和操作。 Storm集成了您已经使用的排队和数据库技术。Storm拓扑消耗数据流并以任意复杂的方式处理这些流,然后在计算的每个阶段之间重新划分流。 离线计算是什么? 批量获取数据、批量的传输数据、批量的存储数据、周期性计算数据、数据可视化 flume批量获取数据、sqoop批量传输、hdfs
    /hive/hbase批量存储、mr/hive计算数据、BI 实时计算是什么? 数据实时产生、数据实时传输、数据实时计算、实时展示 flume实时获取数据、kafka实时数据存储、Storm/JStorm实时计算、实时展示(dataV/quickBI) 二、Storm与Hadoop hadoop storm 角色: JobTracker Nimbus TaskTracker Supervisor Child Worker 应用名称: Job Topology 编程接口: Mapper/Reducer Spout/Bolt 三、storm编程模型 tuple:元组 是消息传输的基本单元。 Spout:水龙头 storm的核心抽象。拓扑的流的来源。Spout通常从外部数据源读取数据。转换为拓扑内部的源数据。 主要方法:nextTuple() -》 发出一个新的元祖到拓扑。 ack() fail() Bolt:转接头 Bolt是对流的处理节点。Bolt作用:过滤、业务、连接运算。 Topology:拓扑 是一个实时的应用程序。 永远运行除非被杀死。 Spout到Bolt是一个连接流... wordcount spark->wordcount storm流式计算 hadoop与storm兼容性 spark-core spark-sql离线计算 spark-streaming流式计算 一个团队开发 没有兼容性问题 spark团队:我要做一栈式开发平台! 但凡涉及到大数据计算 我都能搞定! spark替代了mapreduce spark没有底层存储 依赖hdfs hdfs/mr............ 完善整个生态圈系统! mapreduce思想、编程 、sqoop->mr hive->mr hbasemr dfs/mapreduce/bigtable java/scala... 四、Storm集群安装部署 1)准备工作 zk01 zk02 zk03 storm01 storm02 storm03 2)下载安装包 http://storm.apache.org/downloads.html 3)上传apache-storm-1.1.0.tar.gz到/root下 4)解压 cd /root tar -zxvf apache-storm-1.1.0.tar.gz -C /root/hd/ 5)修改配置文件 cd /root/hd mv apache-storm-1.1.0/ storm cd storm/conf/ $ vi storm.yaml # 设置Zookeeper的主机名称 storm.zookeeper.servers: - "hd09-1" - "hd09-2" - "hd09-3" # 设置主节点的主机名称 nimbus.seeds: ["hd09-1"] # 设置Storm的数据存储路径 storm.local.dir: "/root/hd/storm/data" # 设置Worker的端口号 supervisor.slots.ports: - 6700 - 6701 - 6702 - 6703 6)创建文件夹/root/hd/storm/data mkdir /root/hd/storm/data 7)配置环境变量 vi /etc/profile 在最下面加入 export STORM_HOME=/root/hd/storm export PATH=$PATH:$STORM_HOME/bin 生效环境变量 source /etc/profile 8)分发安装包到其他机器 cd /root/hd/ scp -r storm/ hd09-2:$PWD scp -r storm/ hd09-3:$PWD 9)启动Zookeeper zkServer.sh start(三台机器都执行) 10)启动nimbus storm nimbus & (三台机器都执行) 11) 启动supervisor storm supervisor & (三台机器都执行) 12)启动ui界面 storm ui 浏览器输入http://192.168.146.132:8080可以访问 五、Storm命令行操作 1)查看命令帮助 storm help 2)查看版本 storm version 3)运行storm程序 storm jar [/路径/.jar][全类名][拓扑名称] 4)查看当前正在运行拓扑及其状态 storm list 5)终止拓扑程序 storm kill [拓扑名称] 6)激活拓扑程序 storm activate [拓扑名称] 7)禁止拓扑程序 storm deactivate [拓扑名称] 六、分组策略 1)Fields Grouping 按照字段分组。相同字段发送到一个task中。 2)shuffle Grouping 随机分组。轮询。平均分配。随机分发tuple,保证每个bolt中的tuple数量相同。 3)Non Grouping 不分组 采用这种策略每个bolt中接收的单词不同。 4)All Grouping 广播发送 5)Global Grouping 全局分组 分配给task id值最小的 根据线程id判断,只分配给线程id最小的
  • 相关阅读:
    Dubbo之SPI实现原理详解
    Java SPI详解
    Java是如何实现自己的SPI机制的
    Dubbo的负载均衡原理解析
    Dubbo公开课
    【todo】什么是沟子函数
    一步一图,带你走进 Netty 的世界!
    https://github.com/xiaojiaqi/k8seasy_release_page
    mysql 8.0导致5.6数据后 :ERROR 1449 (HY000): The user specified as a definer ('mysql.infoschema'@'localhost') does not exist
    Ansible 日常使用技巧
  • 原文地址:https://www.cnblogs.com/areyouready/p/10188003.html
Copyright © 2020-2023  润新知