• kafka 安装步骤


     kafka安装文档

    1、解压缩(官网下载:http://kafka.apache.org/downloads.html)

       tar -xzf kafka_2.10-0.8.2.0.tgz

       cd kafka_2.10-0.8.2.0

    2、启动server服务(包含zookeeper服务、kafka服务)

       bin/zookeeper-server-start.sh  config/zookeeper.properties & (&表示在后台运行)

       bin/kafka-server-start.sh  config/server.properties &

    3、创建topic

       bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test

         查看topic命令:

         bin/kafka-topics.sh --list --zookeeper localhost:2181

    4、发消息(producer发消息给kafka实例(broker)consumerkafka实例中接受数据)

      Producer: bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test

                       This is a message

                       This is another message

    5、启动consumer

       bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning

       接受到的数据为:

        This is a message

         This is another message  注意:到这里单机kafka測试完毕 以下介绍kafka集群安装与測试

    6、首先准备3个虚拟机 安装zookeeper 3个节点的集群,分别为hadoop0hadoop1hadoop2 

       这里就不介绍了!!!。!!

    7、安装好zookeeper后 在3个节点分别运行 zkServer.sh start 

        查看状态命令为:zkServer.sh status

    8、Hadoop0(192.168.80.100) Hadoop1(192.168.80.101) hadoop2(192.168.80.102) 相应主机   kafka以下的$KAFKA_HOME/conf/server.properties 分别改动文件为:

      Hadoop0

            broker.id=0

            port=9092

            host.name=hadoop0

            advertised.host.name=hadoop0

            .....

            num.partitions=2

            zookeeper.contact=hadoop0:2181,hadoop1:2181,hadoop2:2181

     Hadoop1:

            broker.id=1

            port=9093

            host.name=hadoop1

            advertised.host.name=hadoop1

            .....

            num.partitions=2

            zookeeper.contact=hadoop0:2181,hadoop1:2181,hadoop2:2181

      Hadoop2

            broker.id=2

            port=9094

            host.name=hadoop2

            advertised.host.name=hadoop2

            .....

            num.partitions=2

            zookeeper.contact=hadoop0:2181,hadoop1:2181,hadoop2:2181

      9、模拟測试:

         (1)分别在hadoop0Hadoop1hadoop2节点分别运行:

           $KAFKA_HOME/bin/kafka-server-start.sh  $KAFKA_HOME/config/server.properties &

         (2)hadoop0新建topic  命令为:

          kafka-topics.sh --create --topic test --replication-factor 3 --partitions 2 --zookeeper hadoop0:2181  

          查看多少个topic命令:

         &

  • 相关阅读:
    不要随便用#define 沉沉_
    转载堆和栈的区别 沉沉_
    转载include包含源文件引发的错误 沉沉_
    浅议C和C++中的内存分配 沉沉_
    volatile 的应用 沉沉_
    Debian显示txt乱码
    Debian 64位安装wink
    Debian安装vmware虚拟机
    Debian安装scim中文、日语输入法
    Debian安装chrome
  • 原文地址:https://www.cnblogs.com/wzzkaifa/p/7269797.html
Copyright © 2020-2023  润新知