• 3_Nginx


    一. Nginx介绍

    1.1 引言

    • 为什么要学Nginx
      • 问题1: 客户端到底要将请求发送给哪台服务器
      • 问题2: 如果所有客户端的请求都发送给了服务器1
      • 问题2: 客户端发送的请求可能是申请动态资源的, 也有申请静态资源的
    • 服务器搭建集群后
    		服务器1
    客户端   服务器2	数据库
    		服务器3
    		...
    
    • 使用Nginx做反向代理服务器
    		        服务器1
    客户端==>Nginx   服务器2	数据库
    		        服务器3
    		        ...
    

    1.2 Nginx介绍

    • Nginx是由俄罗斯人研发的, 应对Rambler的网站, 并且2004年发布的第一个版本
    • Nginx的特点
      1. 稳定性极强, 7*24小时不间断运行
      2. Nginx提供了非常丰富的配置实例
      3. 占用内存小, 并发能力强

    二. Nginx的安装

    2.1 安装Nginx

    cd /opt/
    mkdir docker_nginx
    cd docker_nginx/
    vi docker-compose.yml
    
    • docker-compose.yml
    version: '3.1'
    services:
      nginx:
        restart: always
        image: daocloud.io/library/nginx:1.9.1
        container_name: nginx
        ports:
          - 80:80
    

    2.2 Nginx的配置文件

    • 关于Nginx的核心配置文件nginx.conf
    user  nginx;
    worker_processes  1;
    
    error_log  /var/log/nginx/error.log warn;
    #以上统称为全局快
    #worker_processes的数值越大, Nginx的并发能力越强
    #error_log 代表Nginx的错误日志存放的位置
    
    events {
        worker_connections  1024;
    }
    #event块
    #worker_connections的数值越大, Nginx的并发能力越强
    
    http {
        include       /etc/nginx/mime.types;
        default_type  application/octet-stream;
    
        server {
            listen       80;
            server_name  localhost;
    
            location / {
                root   /usr/share/nginx/html;
                index  index.html index.htm;
            }
            #location块
            #root: 将接收到的请求根据/usr/share/nginx/html去查找静态资源
            #index: 默认去上述的路径中找到index.html或者index.htm
    	}
    	#server块
    	#listen: 代表Nginx监听的端口号
    	#location: 代表Nginx接收请求的ip
    }
    
    #http块
    #include代表引入一个外部的文件=>/etc/nginx/mime.types中存放着大量的媒体类型
    #include /etc/nginx/conf.d/*.conf=>引入了conf.d目录下的以.conf结尾的配置文件
    

    2.3 修改docker-compose.yml文件

    • 加上数据卷
    • volumes:
      - /opt/docker_nginx/conf.d/:/etc/nginx/conf.d
    version: '3.1'
    services:
      nginx:
        restart: always
        image: daocloud.io/library/nginx:1.9.1
        container_name: nginx
        ports:
          - 80:80
        volumes:
          - /opt/docker_nginx/conf.d/:/etc/nginx/conf.d
    
    docker-compose down
    cd /opt/docker_nginx/
    vi docker-compose.yml
    docker-compose build
    docker-compose up -d
    ls
    cd conf.d/
    vi default.conf
    #加上下方的内容
    
    server{
      listen 80;
      server_name localhost;
    
      location / {
        root /usr/share/nginx/html;
        index index.html index.htm;
      }
    }
    
    docker-compose restart
    

    三. Nginx的反向代理

    3.1 正向代理和反向代理介绍

    • 正向代理:
      1. 正向代理服务器是由客户端设立的
      2. 客户端了解代理服务器和目标服务器都是谁
      3. 帮助咱们实现突破访问权限, 提高访问速度, 对目标服务器隐藏客户端的ip地址
    • 反向代理
      1. 反向代理服务器是配置在服务端的
      2. 客户端是不知道访问的是哪一台服务器的
      3. 达到负载均衡, 并且可以隐藏服务器真正的ip地址

    3.2 基于Nginx实现反向代理

    • 准备一个目标服务器
    • 启动之前的tomcat服务器
    • 编写Nginx的配置文件default.conf, 通过Nginx访问到tomcat服务器
    • vi default.conf
    server{
      listen 80;
      server_name localhost;
    
      #基于反向代理访问到Tomcat服务器
      location / {
        proxy_pass http://192.168.59.129:8080/;
      }
    }
    

    3.3 关于Nginx的location路径映射

    • 优先级关系
      • (location = ) > (location /xxx/yyy/zzz) > (location ^~) > (location ~, ~*) > (location /起始路径) > (location /)
    #1. =匹配
    location = / {
      #精准匹配, 主机名后面不能带任何的字符串
    }
    
    #2. 通用匹配
    location /xxx {
      #匹配所有以/xxx开头的路径
    }
    
    #3. 正则匹配
    location ~ /xxx {
      #匹配所有以/xxx开头的路径
    }
    
    #4. 匹配开头路径
    location ^~ /images/ {
      #匹配所有以/images开头的路径
    }
    
    #5. ~* .(gif|jpg|png)$ {
      #匹配以gif或者jpg或者png结尾的路径
    }
    
    server{
      listen 80;
      server_name localhost;
    
      location = /index/ {
        proxy_pass http://192.168.59.129:8082/;  #Tomcat首页
      }
    
      location ^~ /ssm/ {
        proxy_pass http://192.168.59.129:8082/ssm1/;  #SSM首页
      }
    
      #基于反向代理访问到Tomcat服务器
      location / {
        proxy_pass http://192.168.59.129:8080/;  #Hello Nginx!
      }
    }
    
    

    四. Nginx负载均衡

    Nginx为我们提供了三种负载均衡的策略

    1. 轮询
      • 将客户端发起的请求, 平均的分配给每一台服务器
    2. 权重
      • 会将客户端的请求, 根据服务器的权重值不同, 分配不同的数量
    3. ip_hash
      • 基于发起请求的客户端的ip地址不同, 它始终会将请求发送到指定的服务器上

    4.1 轮询

    • 想实现Nginx轮询负载均衡机制只需要在配置文件default.conf中添加以下内容
    upstream my-server{
      server 192.168.59.129:8080;
      server 192.168.59.129:8082;
    }
    
    server{
      listen 80;
      server_name localhost;
    
      location / {
        proxy_pass http://my-server/;
      }
    }
    

    4.2 权重

    • 实现权重的方式weight=XX, XX越大(数字),占得权重比例越高
    upstream my-server{
      server 192.168.59.129:8080 weight=10;  #Hello
      server 192.168.59.129:8082 weight=2;  #Tomcat
    }
    
    server{
      listen 80;
      server_name localhost;
    
      location / {
        proxy_pass http://my-server/;
      }
    }
    

    4.3 ip_hash

    • ip_hash实现
    upstream my-server{
      ip_hash;
      server 192.168.59.129:8080 weight=10;  #Hello
      server 192.168.59.129:8082 weight=2;  #Tomcat
    }
    
    server{
      listen 80;
      server_name localhost;
    
      location / {
        proxy_pass http://my-server/;
      }
    }
    

    五. Nginx动静分离

    • Nginx并发能力公式
      • worker_processes * worker_connections / 4 | 2 = Nginx最终的并发能力
    • 动态资源需要 / 4
      • 客户端=>Nginx=>服务器
      • 服务器=>Nginx=>客户端
    • 静态资源需要 / 2
      • 客户端=>Nginx
      • Nginx=>客户端
    • Nginx通过动静分离, 来提升Nginx的并发能力, 更快的给用户响应

    5.1 动态资源代理

    #配置如下
    location / {
      proxy_pass 路径;
    }
    

    5.2 静态资源代理

    #配置如下
    location / {
      root 静态资源路径;
      index 默认访问路径下的什么资源;
      autoindex on; #代表展示静态资源下的全部内容, 以列表的形式展开
    }
    
    #先修改docker-compose.yml, 添加数据卷, 映射到Nginx服务器的一个目录
    #添加了index.html和1.png静态资源
    #修改配置文件
    
    version: '3.1'
    services:
      nginx:
        restart: always
        image: daocloud.io/library/nginx:1.9.1
        container_name: nginx
        ports:
          - 80:80
        volumes:
          - /opt/docker_nginx/conf.d/:/etc/nginx/conf.d
          - /opt/docker_nginx/img/:/data/img
          - /opt/docker_nginx/html/:/data/html
    
    docker-compose down
    docker-compose up -d
    ls
    cd html/
    vi index.html
    #<h1>Hello Static Resource!</h1>
    #然后找一张图片拖拽到Linux的root下
    cd ~
    mv Thread.png 1.png
    mv 1.png /opt/docker_nginx/img/
    cd /opt/docker_nginx/img/
    ls
    cd ../conf.d/
    vi default.conf
    #配置如下
    
    upstream my-server{
      ip_hash;
      server 192.168.59.129:8080 weight=10;  #Hello
      server 192.168.59.129:8082 weight=2;  #Tomcat
    }
    
    server{
      listen 80;
      server_name localhost;
    
      #代理到html静态资源
      location /html {
        root /data;
        index index.html;
      }
    
      #代理到img静态资源
      location /img {
        root /data;
        autoindex on;
      }
    }
    
    cd ../
    docker-compose restart
    #访问如下网址
    #http://192.168.59.129/html/
    #http://192.168.59.129/html/index.html
    #http://192.168.59.129/img/
    #http://192.168.59.129/img/1.png
    

    六. Nginx集群

    6.1 引言

    • 单点故障: 因为Nginx宕机, 导致整个程序的崩溃
    • 如何避免
      • 准备多台Nginx
      • 准备Keepalived, 监听Nginx的健康情况
      • 准备haproxy, 提供一个虚拟的路径, 统一的去接收用户的请求

    6.2 搭建步骤

    6.2.1 Dockerfile
    FROM nginx:1.13.5-alpine
    
    RUN apk update && apk upgrade
    
    RUN apk add --no-cache bash curl ipvsadm iproute2 openrc keepalived
    
    COPY entrypoint.sh /entrypoint.sh
    
    RUN chmod +x /entrypoint.sh
    
    CMD ["/entrypoint.sh"]
    
    
    6.2.2 entrypoint.sh
    #!/bin/bash
    #/usr/sbin/keepalived -n -l -D -f /etc/keepalived/keepalived.conf --dont-fork --log-console &
    /usr/sbin/keepalived -D -f /etc/keepalived/keepalived.conf
    
    nginx -g "daemon off;"
    
    6.2.3 docker-compose.yml
    version: '3.1'
    services:
      nginx_master:
        build:    #构建自定义镜像
          context: ./  #指定dockerfile文件的所在路径
          dockerfile: ./Dockerfile  #指定Dockerfile文件名称
        ports:
          - 8081:80
        volumes:
          - ./index-master.html:/usr/share/nginx/html/index.html
          - ./favicon.ico:/usr/share/nginx/html/favicon.ico
          - ./keepalived-master.conf:/etc/keepalived/keepalived.conf
        networks:
          static-network:
            ipv4_address: 172.20.128.2
        cap_add:
          - NET_ADMIN
      nginx_slave:
        build:
          context: ./
          dockerfile: ./Dockerfile
        ports:
          - 8082:80
        volumes:
          - ./index-slave.html:/usr/share/nginx/html/index.html
          - ./favicon.ico:/usr/share/nginx/html/favicon.ico
          - ./keepalived-slave.conf:/etc/keepalived/keepalived.conf
        networks:
          static-network:
            ipv4_address: 172.20.128.3
        cap_add:
          - NET_ADMIN
      proxy:
        image: haproxy:1.7-alpine
        ports:
          - 80:6301
        volumes:
          - ./haproxy.cfg:/usr/local/etc/haproxy/haproxy.cfg
        networks:
          - static-network
    
    networks:
      static-network:
        ipam:
          config:
            - subnet: 172.20.0.0/16      
                      
    
    6.2.4 keepalived-master.conf
    vrrp_script chk_nginx {
        script "pidof nginx"
    	interval 2
    }
    
    vrrp_instance VI_1 {
        state MASTER
    	interface eth0 #容器内部的网卡名称
    	virtual_router_id 33
    	priority 200  #优先级
    	advert_int 1
    	
    	authentication {
    	    auth_type PASS
    		auth_pass letmein
    	}
    
    	virtual_ipaddress {
    	    172.20.128.50  #虚拟路径
    	}
    
    	track_script {
    	    chk_nginx
    	}
    }
    
    6.2.5 keepalived-slave.conf
    vrrp_script chk_nginx {
        script "pidof nginx"
    	interval 2
    }
    
    vrrp_instance VI_1 {
        state BACKUP
    	interface eth0 #容器内部的网卡名称
    	virtual_router_id 33
    	priority 100  #优先级
    	advert_int 1
    
    	authentication {
    	    auth_type PASS
    		auth_pass letmein
    	}
    
    	virtual_ipaddress {
    	    172.20.128.50  #虚拟路径
    	}
    
    	track_script {
    	    chk_nginx
    	}
    }
    
    6.2.6 haproxy.cfg
    global
        log 127.0.0.1 local0
        maxconn 4096
        daemon
        nbproc 4
    
    defaults
        log 127.0.0.1 local3
        mode http
        option dontlognull
        option redispatch
        retries 2
        maxconn 2000
        balance roundrobin
        timeout connect 5000ms
        timeout client 5000ms
        timeout server 5000ms
    
    frontend main
        bind *:6301
        default_backend webserver
    
    backend webserver
        server nginx_master 172.20.128.50:80 check inter 2000 rise 2 fall 5
    
    6.2.7 index-master.html
    <h1>master</h1>
    
    6.2.8 index-slave.html
    <h1>slave</h1>
    

    6.3 说明

    #将以上8个文件拖拽到/opt/docker_nginx_cluster/(通过Xterm的sftp)
    cd /opt/
    mkdir docker_nginx_cluster
    cd docker_nginx_cluster
    docker-compose up -d
    docker ps -a
    #然后访问http://192.168.59.129:8081/ 会看到master, 访问http://192.168.59.129:8082/ 会看到slave
    #访问http://192.168.59.129 看到master(默认)
    #然后我们把8081端口关闭
    docker stop 容器ID
    #再次访问http://192.168.59.129 会看到slave
    #当8081端口的Nginx服务器挂了之后, 我们还有8082端口的Nginx服务器, 依旧不影响使用
    #至此Nginx集群搭建成功
    

    6.4 出现的错误

    • 首先, 如果遇到错误一定要先去查看错误日志
    • 错误1:
      • standard_init_linux.go:228: exec user process caused: no such file or directory
    #我在运行docker-compose up -d命令后, 发现nginx_master和nginx-slave这两个容器刚启动就关闭了,然后就去看日志
    docker ps -a
    docker logs -f 容器ID
    #-f: 可以查看日志的最后几行
    #然后发现如下错误
    #standard_init_linux.go:228: exec user process caused: no such file or directory
    #百度了一下是dos字符与unix字符的问题
    #因为我使用的notepad++来编辑文件并上传到服务器中,默认是以DOS文本格式来创建的, 需要把文件转换下字符
    

    解决

    1. 安装dos2unix
     yum -y install dos2unix
    
    1. 将相关文件转换一下字符
    dos2unix Dockerfile
    
    1. 重新构建
    docker-compose build
    #如果重新构建还不行, 先把所有容器停止再删除后重新启动
    docker stop $(docker ps -qa)
    docker rm $(docker ps -qa)
    docker-compose up -d
    
    • 错误2:
      • ERROR: Pool overlaps with other one on this address space
    • 在docker中创建networks的时候有时候会报ERROR: Pool overlaps with other one on this address space的错误,这是因为目标网段已经存在的原因,通常这发生在将要创建的networks手动指定了subnet网段地址的时候
    • 这时有两个选择,一是查看已存在的网段是否有容器正在使用,如果没再用了可以删除该网段对应的网卡,二是修改目标的subnet网段地址。
    docker network ls
    #查看docker网卡
    
    docker network rm 网卡id
    #删除docker网卡
    
    docker network inspect 网卡id
    #查看docker网卡的相关详细信息
    
  • 相关阅读:
    android开发之AlertDialog点击按钮之后不消失
    FaceBook要在视频领域打败YouTube?
    POJ 1469 COURSES
    图论trainning-part-2 C. The Largest Clique
    hdu 1269 迷宫城堡
    图论trainning-part-2 B. Claw Decomposition
    图论trainning-part-1 H. Qin Shi Huang's National Road System
    xtu数据结构 H. City Horizon
    图论trainning-part-1 E. Invitation Cards
    图论trainning-part-1 F. Highways
  • 原文地址:https://www.cnblogs.com/MRASdoubleZ/p/14863935.html
Copyright © 2020-2023  润新知