1. zookeeper
[program:zookeeper] environment = JAVA_HOME="/opt/jdk1.8.0_191" process_name=%(program_name)s ;进程名称 directory=/home/lenmom/workspace/software/zookeeper-3.4.12 ;工作目录 command=nohup ./bin/zkServer.sh start ;运行的命令 autostart=true ;自动开启 autorestart=true ;自动重启 user=lenmom ;用户 numprocs=1 ;进程数 startretries=3 ;启动重试次数 stopasgroup=true ;是否停止子进程 killasgroup=true ;是否杀死子进程 startsecs=5 ;启动5秒后,如果还是运行状态才认为进程已经启动 ;redirect_stderr=true ;stdout_logfile_maxbytes=100MB stdout_logfile_backups=10 stdout_logfile=./logs/zookeeper_supervisor.log
2. doris_fe
[program:doris_fe] environment = JAVA_HOME="/opt/jdk1.8.0_191" process_name=%(program_name)s ;进程名称 directory=/opt/palo-0.10.0/fe ;工作目录 command=sh /opt/palo-0.10.0/fe/bin/start_fe.sh --daemon ;运行的命令 autostart=true ;自动开启 autorestart=true ;自动重启 user=lenmom ;用户 numprocs=1 ;进程数 startretries=3 ;启动重试次数 stopasgroup=true ;是否停止子进程 killasgroup=true ;是否杀死子进程 startsecs=5 ;启动5秒后,如果还是运行状态才认为进程已经启动 ;redirect_stderr=true ;stdout_logfile_maxbytes=100MB stdout_logfile_backups=10 stdout_logfile=./logs/palo_fe_supervisor.log
3. doris_hdfs_broker
[program:doris_broker] environment = JAVA_HOME="/opt/jdk1.8.0_191" process_name=%(program_name)s ;进程名称 directory=/opt/doris-0.10.0/apache_hdfs_broker ;工作目录 command=sh ./bin/start_broker.sh --daemon ;运行的命令 autostart=true ;自动开启 autorestart=true ;自动重启 user=druid ;用户 numprocs=1 ;进程数 startretries=3 ;启动重试次数 stopasgroup=true ;是否停止子进程 killasgroup=true ;是否杀死子进程 startsecs=5 ;启动5秒后,如果还是运行状态才认为进程已经启动 ;redirect_stderr=true ;stdout_logfile_maxbytes=20MB stdout_logfile_backups=10 stdout_logfile=./logs/supervisor-broker.log
4. doris_be
[program:doris_be] process_name=%(program_name)s ;进程名称 directory=/opt/doris-0.10.0/be ;工作目录 command=sh ./bin/start_be.sh --daemon ;运行的命令 autostart=true ;自动开启 autorestart=true ;自动重启 user=lenmom ;用户 numprocs=1 ;进程数 startretries=3 ;启动重试次数 stopasgroup=true ;是否停止子进程 killasgroup=true ;是否杀死子进程 startsecs=5 ;启动5秒后,如果还是运行状态才认为进程已经启动 ;redirect_stderr = true ;stdout_logfile_maxbytes = 20MB stdout_logfile_backups = 10 stdout_logfile=./log/supervisor-doris_be.log
5. hive server2
[program:hive_server2] environment = JAVA_HOME=/opt/jdk1.8.0_191,HIVE_HOME=/home/workspace/software/apache-hive-2.3.4,HADOOP_HOME=/home/workspace/software/hadoop-2.7.3 process_name=%(program_name)s ;进程名称 directory=/home/workspace/software/apache-hive-2.3.4 ;工作目录 command=nohup ./bin/hive --service hiveserver2 ;运行的命令 autostart=true ;自动开启 autorestart=true ;自动重启 user=lenmom ;用户 numprocs=1 ;进程数 startretries=3 ;启动重试次数 stopasgroup=true ;是否停止子进程 killasgroup=true ;是否杀死子进程 startsecs=10 ;启动5秒后,如果还是运行状态才认为进程已经启动 ;redirect_stderr=true ;stdout_logfile_maxbytes=20MB stdout_logfile_backups=10 stdout_logfile=./log/hive_server2_supervisor.log
6. hive metastore
[program:hive_metastore] environment = JAVA_HOME=/opt/jdk1.8.0_191,HIVE_HOME=/home/workspace/software/apache-hive-2.3.4,HADOOP_HOME=/home/workspace/software/hadoop-2.7.3 process_name=%(program_name)s ;进程名称 directory=/home/workspace/software/apache-hive-2.3.4 ;工作目录 command=nohup /bin/hive --service metastore ;运行的命令 autostart=true ;自动开启 autorestart=true ;自动重启 user=druid ;用户 numprocs=1 ;进程数 startretries=5 ;启动重试次数 stopasgroup=true ;是否停止子进程 killasgroup=true ;是否杀死子进程 startsecs=10 ;启动5秒后,如果还是运行状态才认为进程已经启动 ;redirect_stderr=true ;stdout_logfile_maxbytes=20MB stdout_logfile_backups=10 stdout_logfile=./log/hive_metastore_supervisor.log
7. kafka
[program:kafka] environment = JAVA_HOME="/opt/jdk1.8.0_191",SCALA_HOME="/home/lenmom/workspace/software/scala-2.11.8" process_name=%(program_name)s ;进程名称 directory=/home/lenmom/workspace/software/kafka_2.11-2.1.0 ;工作目录 command=./bin/kafka-server-start.sh ./config/server.properties ;运行的命令 autostart=true ;自动开启 autorestart=true ;自动重启 user=lenmom ;用户 numprocs=1 ;进程数 startretries=3 ;启动重试次数 stopasgroup=true ;是否停止子进程 killasgroup=true ;是否杀死子进程 startsecs=5 ;启动5秒后,如果还是运行状态才认为进程已经启动 ;redirect_stderr=true ;stdout_logfile_maxbytes=100MB stdout_logfile_backups=10 stdout_logfile=./logs/supervisor_kafka.log
8. kafka connector