1)解压安装包 [hadoop@hadoop102 software]$ tar -zxvf kafka_2.11-0.11.0.0.tgz -C /opt/module/ 2)修改解压后的文件名称 [hadoop@hadoop102 module]$ mv kafka_2.11-0.11.0.0/ kafka 3)在/opt/module/kafka 目录下创建 logs 文件夹 [hadoop@hadoop102 kafka]$ mkdir logs 4)修改配置文件 [hadoop@hadoop102 kafka]$ cd config/ [hadoop@hadoop102 config]$ vi server.properties 输入以下内容: #broker 的全局唯一编号,不能重复 broker.id=0 #删除 topic 功能使能 delete.topic.enable=true #处理网络请求的线程数量 num.network.threads=3 #用来处理磁盘 IO 的现成数量 num.io.threads=8 #发送套接字的缓冲区大小 socket.send.buffer.bytes=102400 #接收套接字的缓冲区大小 socket.receive.buffer.bytes=102400 #请求套接字的缓冲区大小 socket.request.max.bytes=104857600 #kafka 运行日志存放的路径 log.dirs=/opt/module/kafka/logs #topic 在当前 broker 上的分区个数 num.partitions=1 #用来恢复和清理 data 下数据的线程数量 num.recovery.threads.per.data.dir=1 #segment 文件保留的最长时间,超时将被删除 log.retention.hours=168 #配置连接 Zookeeper 集群地址 zookeeper.connect=hadoop102:2181,hadoop103:2181,hadoop104:2181 5)配置环境变量 [hadoop@hadoop102 module]$ sudo vi /etc/profile #KAFKA_HOME export KAFKA_HOME=/opt/module/kafka export PATH=$PATH:$KAFKA_HOME/bin [hadoop@hadoop102 module]$ source /etc/profile 6)分发安装包 [hadoop@hadoop102 module]$ xsync kafka/ 注意:分发之后记得配置其他机器的环境变量 7)分别在 hadoop103 和 hadoop104 上修改配置文件 /opt/module/kafka/config/server.properties 中的 broker.id=1、broker.id=2 注:broker.id 不得重复 8)启动集群 依次在 hadoop102、hadoop103、hadoop104 节点上启动 kafka [hadoop@hadoop102 kafka]$ bin/kafka-server-start.sh config/server.properties & [hadoop@hadoop103 kafka]$ bin/kafka-server-start.sh config/server.properties & [hadoop@hadoop104 kafka]$ bin/kafka-server-start.sh config/server.properties & 9)关闭集群 [hadoop@hadoop102 kafka]$ bin/kafka-server-stop.sh stop [hadoop@hadoop103 kafka]$ bin/kafka-server-stop.sh stop [hadoop@hadoop104 kafka]$ bin/kafka-server-stop.sh stop