• kafka集群的搭建


    本系列文章主要阐述大数据计算平台相关框架的搭建,包括如下内容:

    • 基础环境安装
    • zookeeper集群的搭建
    • kafka集群的搭建
    • hadoop/hbase集群的搭建
    • spark集群的搭建
    • flink集群的搭建
    • elasticsearch集群的搭建
    • alluxio集群的搭建

    1.kafak简介

    Kafka是一个分布式、分区的、多副本的、多订阅者的消息队列,以高吞吐量著称,主要用于实时数据的传输和处理,总体架构如下

    更多内容请阅读官网 http://kafka.apache.org/documentation.html#introduction

    2.kafka安装

    • 下载

    地址:http://kafka.apache.org/downloads,选择kafka_2.11-0.10.2.1.tgz版本

    • 解压安装

    本文环境列表

    直接在服务器10.20.112.59上解压

    1
    2
    3
    cd ~
    tar -zxvf kafka_2.11-0.10.2.1.tgz.gz
    mv  kafka_2.11-0.10.2.1 kafka
    •  配置更改

    编辑kafka server配置文件
    vi /wls/oracle/kafka/config/server.properties
    主要是如下几项:

    kafka集群
    修改server.properties
    不同集群broker.id 和host.name 不一样,根据实际情况配置。
    修改默认配置文件中的
    broker.id(每台服务器均不同)
    port(如果是伪集群,则端口号需要改变)
    host.name
    advertised.host.name
    zookeeper.connect(所有集群的ip均需要说明)
    log.dirs

    以服务器SZB-L0045546,则其server.properties需更改的配置如下:

    复制代码
    broker.id=1
    port=9092
    host.name=SZB-L0045546
    advertised.host.name=10.20.112.59
    zookeeper.connection=SZB-L0045546:2181,SZB-L0045551:2181,SZB-L0045552:2181/kafka
    log.dirs=/wls/oracle/bigdata/kafka/kafka-logs-1,/wls/oracle/bigdata/kafka/kafka-logs-2,/wls/oracle/bigdata/kafka/kafka-logs-3
    复制代码

    而集群另外4台服务器中的broker.id、host.name,advertised.host.name和SZB-L0045546的保持不同即可。同时集群中的服务器需要为kafka日志建立相关目录

    mkdir -p /wls/oracle/bigdata/kafka/kafka-logs-1
    mkdir -p /wls/oracle/bigdata/kafka/kafka-logs-2
    mkdir -p /wls/oracle/bigdata/kafka/kafka-logs-3
    • 启动和验证
    依次启动集群中的kafka,执行脚本如下: 
    cd wls/oracle/bigdata/kafka/logs
    nohup /wls/oracle/kafka/bin/kafka-server-start.sh /wls/oracle/kafka/config/server.properties >> /wls/oracle/bigdata/kafka/logs/kafka.out 2&1 &

    创建topic

    /wls/oracle/kafka/bin/kafka-topics.sh --zookeeper 10.20.112.59:2181,10.20.112.64:2181,10.20.112.65:2181,10.20.116.129:2181,10.20.116.175:2181/kafka
     --create --topic TEST --replication-factor 2 --partitions 3

    显示创建的topic

    /wls/oracle/kafka/bin/kafka-topics.sh --zookeeper 10.20.112.59:2181,10.20.112.64:2181,10.20.112.65:2181,10.20.116.129:2181,10.20.116.175:2181/kafka
     --list

    向TEST中写入消息

    /wls/oracle/kafka/bin/kafka-console-producer.sh --broker-list 10.20.112.59:2181,10.20.112.64:2181,10.20.112.65:2181,10.20.116.129:2181,10.20.116.175:2181/kafka
     --topic TEST

    从topic TEST中消费数据

    /wls/oracle/kafka/bin/kafka-console-consumer.sh --bootstrap-server 10.20.112.59:2181,10.20.112.64:2181,10.20.112.65:2181,10.20.116.129:2181,10.20.116.175:2181/kafka
     --topic TEST --from-beginning



     
  • 相关阅读:
    pgsql批量新增覆盖原表数据
    乘风破浪,遇见最美Windows 11之新微软商店(Microsoft Store)生态 Wondershare HiPDF正式登陆Teams应用市场
    乘风破浪,遇见未来新能源汽车(Electric Vehicle)之特斯拉掀起CTC技术浪潮,5大车企扎堆跟进,想要干掉电池组
    时光卷轴,IT启示录2022年6月刊
    乘风破浪,遇见最美Windows 11之现代Windows桌面应用开发 微软跨平台UI框架.NET MAUI,基于.NET 6构建的通用框架
    HTTP编码和解码与基本认证
    HTTPS&SPDY&HTTP2&QUIC&HTTP3
    HTTP报文结构
    HTTP内容协商机制和断点续传
    HTTP Web安全
  • 原文地址:https://www.cnblogs.com/soundcode/p/7151993.html
Copyright © 2020-2023  润新知