• 系统综合实践 第4次实践作业


    一、使用Docker-compose实现Tomcat+Nginx负载均衡
    1.创建docker_compose,在其中配置文件,结构如下

    (1)docker-compose

    (2)default.conf

    (3)运行compose

    (4)网页查看

    2.负载均衡测试
    (1)轮询策略
    编写脚本

    运行

    (2)权重策略
    修改default.conf

    编写脚本

    运行

    二、使用Docker-compose部署javaweb运行环境
    1.文件结构

    2.配置文件
    (1)docker-compose.yml

    (2)default.conf

    (3)/webapps/ssmgrogshop_war/WEB-INF/classes/jdbc.properties 修改ip和端口

    3.启动容器
    docker-compose up -d
    4.网页查看

    三、使用Docker搭建大数据集群环境
    1.创建并运行容器

    2.安装ssh
    ![](https://img2020.cnblogs.com/blog/1820862/202005/1820862-20200517181710620-1973125996.png
    3.开启sshd服务器

    4.修改bashrc:文件末尾添加/etc/init.d/ssh start

    5.实现免密登录


    6.安装jdk

    7.安装hadoop
    (1)将压缩包拷入容器
    sudo docker cp /home/cgh/hadoop-3.1.3.tar.gz 容器ID:/root/hadoop-3.1.3.tar.gz
    (2)进入容器
    docker restart 容器ID
    docker attach 容器ID
    (3)解压hadoop
    cd /root
    tar -zxvf hadoop-3.1.3.tar.gz -C /usr/local
    8.进行环境配置
    (1)修改内容:配置变量

    (2)使环境生效

    9.配置hadoop集群
    (1)修改以下配置

    (2)hadoop-env.sh
    在文件里添加 export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64/
    (3)core-site.xml

    hadoop.tmp.dir file:/usr/local/hadoop-3.1.3/tmp Abase for other temporary directories. fs.defaultFS hdfs://master:9000 (4)hdfs-site.xml dfs.replication 1 dfs.namenode.name.dir file:/usr/local/hadoop-3.1.3/tmp/dfs/name dfs.datanode.data.dir file:/usr/local/hadoop-3.1.3/tmp/dfs/data dfs.permissions.enabled false (5)mapred-site.xml mapreduce.framework.name yarn yarn.app.mapreduce.am.env HADOOP_MAPRED_HOME=/usr/local/hadoop-3.1.3 mapreduce.map.env HADOOP_MAPRED_HOME=/usr/local/hadoop-3.1.3 mapreduce.reduce.env HADOOP_MAPRED_HOME=/usr/local/hadoop-3.1.3 (6)yarn-site.xml yarn.nodemanager.aux-services mapreduce_shuffle yarn.resourcemanager.hostname Master yarn.nodemanager.vmem-pmem-ratio 2.5

    10.进入脚本目录(cd /usr/local/hadoop-3.1.3/sbin)
    (1)start-dfs.sh和stop-dfs.sh,添加下列参数
    HDFS_DATANODE_USER=root
    HADOOP_SECURE_DN_USER=hdfs
    HDFS_NAMENODE_USER=root
    HDFS_SECONDARYNAMENODE_USER=root
    (2)start-yarn.sh和stop-yarn.sh,添加下列参数
    YARN_RESOURCEMANAGER_USER=root
    HADOOP_SECURE_DN_USER=yarn
    YARN_NODEMANAGER_USER=root

    11.构件镜像
    docker commit 容器ID ubuntu/hadoop

    12.修改三个终端的hosts

    13.通过ssh,相互到达


    14.在Master上修改workers

    15.在master上格式化文件系统

    16.启动NameNode和DataNode服务并查看

    17.运行hadoop实例程序

    18.查看运行结果

  • 相关阅读:
    软件的开发流程(摘录百度百科)
    linux大全
    percona server 二进制安装下编译tpcc-mysql的坑
    Problems with MMM for mysql(译文)
    MySQL MMM 双主在Failover时挂起
    Steve Loughran:Why not raid 0,its about time and snowflakes!!!
    React-Redux 源码解析
    《图解 HTTP》读书笔记
    图解 HTTP 笔记(八)——常见 Web 攻击技术
    图解 HTTP 笔记(七)——HTTPS
  • 原文地址:https://www.cnblogs.com/silentstone/p/12906161.html
Copyright © 2020-2023  润新知