• flink 1.7.2 安装详解


    ##flink 1.7.2 安装
    需要java环境

    下载地址 https://flink.apache.org/downloads.html
    #1、单机版

    #创建用户flink
    useradd flink -d /home/flink
    echo "flink123" | passwd flink --stdin

    #解压
    tar -zxvf flink-1.7.2-bin-hadoop26-scala_2.11.tgz

    #启动
    cd flink-1.7.2/bin/ && ./start-cluster.sh

    #测试
    1、web页面查看:ip:8081 例如:http://192.168.88.132:8081
    2、运行实例wordcount程序:cd flink-1.7.2/bin/ && ./flink run ../examples/batch/WordCount.jar
    3、jps 查看进程


    #2、独立集群版
    #准备机器 /etc/hosts
    192.168.88.130 lgh
    192.168.88.131 lgh1
    192.168.88.132 lgh2

    #创建用户flink(所有机器)
    useradd flink -d /home/flink
    echo "flink123" | passwd flink --stdin

    #ssh免密登录(在192.168.88.130,指定一台操作)
    su - flink
    ssh-keygen -t rsa
    ssh-copy-id 192.168.88.131
    ssh-copy-id 192.168.88.132

    #解压
    tar -zxvf flink-1.7.2-bin-hadoop26-scala_2.11.tgz

    cd flink-1.7.2/conf

    #修改配置文件
    #1、masters
    192.168.88.130:8081

    #2、slaves
    192.168.88.131
    192.168.88.132

    #3、flink-conf.yaml
    cat flink-conf.yaml | grep -v ^# | grep -v "^$"

    jobmanager.rpc.address: 192.168.88.130
    jobmanager.rpc.port: 6123
    env.java.home: /usr/java/default
    jobmanager.heap.size: 1024m
    taskmanager.heap.size: 1024m
    taskmanager.numberOfTaskSlots: 1
    parallelism.default: 1
    rest.port: 8081

    #分发flink
    scp -r flink-1.7.2 flink@192.168.88.131/home/flink
    scp -r flink-1.7.2 flink@192.168.88.132/home/flink

    #启动
    在主节点上:cd flink-1.7.2/bin/ && ./start-cluster.sh

    #测试
    1、web页面查看:ip:8081 例如:http://192.168.88.132:8081
    2、运行实例wordcount程序:cd flink-1.7.2/bin/ && ./flink run ../examples/batch/WordCount.jar
    3、jps 查看


    #3、基于yarn的集群版(前提是安装好了hadoop)
    hadoop的安装:可参考https://www.cnblogs.com/zsql/p/10736420.html
    在独立集群的基础上:新增如下

    #配置hadoop的环境变量 /etc/profile 或者 ~/.bashrc
    export HADOOP_HOME=/apps/opt/cloudera/parcels/CDH/lib/hadoop
    export HADOOP_CONF_DIR=/etc/hadoop/conf
    export YARN_CONF_DIR=/etc/hadoop/conf

    然后使用source命令使配置文件生效

    #分发flink
    scp -r flink-1.7.2 flink@192.168.88.131/home/flink
    scp -r flink-1.7.2 flink@192.168.88.132/home/flink

    #启动集群和yarn-session
    cd flink-1.7.2 && ./start-cluster.sh
    cd flink-1.7.2 && nohup ./bin/yarn-session.sh &

    #测试
    1、jps 查看进程
    2、执行程序:./bin/flink run -m yarn-cluster -yn 2 ./examples/batch/WordCount.jar
    然后去hadoop的yarn页面查看作业,ip:8088

    #4、高可用版(安装zookeeper,或者修改conf/zoo.cfg,推荐安装zookeeper)
    zookeeper的安装可以参考:https://www.cnblogs.com/zsql/p/10736420.html

    在基于yarn版本集群的基础上修改如下配置:
    #1、masters
    192.168.88.130:8081
    192.168.88.131:8082

    #2、flink-conf.yaml (一定要注意空格..踩过坑)
    jobmanager.rpc.address: 192.168.88.130
    jobmanager.rpc.port: 6123
    env.java.home: /usr/java/default
    jobmanager.heap.size: 1024m
    taskmanager.heap.size: 1024m
    taskmanager.numberOfTaskSlots: 1
    parallelism.default: 1
    high-availability: zookeeper
    high-availability.zookeeper.path.root:/user/flink/root 
    high-availability.storageDir: hdfs:///user/flink/ha/ #该目录flink用户一定要有权限
    high-availability.zookeeper.quorum: 192.168.88.130:2181,192.168.88.131:2181,192.168.88.132:2181
    rest.port: 8081

    #分发flink
    scp -r flink-1.7.2 flink@192.168.88.131/home/flink
    scp -r flink-1.7.2 flink@192.168.88.132/home/flink

    #测试如上yarn集群
    新增测试,kill掉一个主节点进程,看是否能跑作业

     
  • 相关阅读:
    网站中三角小图标的制作方法
    table版网站首页制作
    网站首页之早期布局
    图标字体使用方法总结
    导航制作方法总结之二
    导航制作方法总结之一
    关于网站建设之清除浏览器默认样式
    MySql操作时间
    POI操作excel
    Spring定时器,定时执行(quartz)
  • 原文地址:https://www.cnblogs.com/zsql/p/11091428.html
Copyright © 2020-2023  润新知