• Nginx使用总结


    因最近在研究dotcore,涉及nginx使用,中间出了一些问题,故再次研究并总结了一下nginx。

    一.安装

    yum install -y pcre pcre-devel
    yum install -y zlib zlib-devel
    yum install -y openssl openssl--devel
    yum -y install pcre-devel openssl openssl-devel
    yum -y install gcc gcc-c++ autoconf automake make  -- c编译器没装也需要装
    ------------------以上是安装编译环境---------------------
    wget http://nginx.org/download/nginx-1.7.4.tar.gz ##没取到,浏览器下载后rz到linux
    tar -zxvf nginx-1.7.4.tar.gz
    cd nginx-1.7.4
    ./configure
    make
    make install
    确认安装无误?
    1.通过访问默认网站出现欢迎页。
    2.ps -aux|grep nginx 确认线程启动
     
    二、nginx指令
    通过帮助可以常看到,指令,如:sbin/nginx -h
    -?,-h           : 打开帮助信息
    -v              : 显示版本信息并退出
    -V              : 显示版本和配置选项信息,然后退出
    -t              : 检测配置文件是否有语法错误,然后退出
    -q              : 在检测配置文件期间屏蔽非错误信息
    -s signal       : 给一个 nginx 主进程发送信号:stop(停止), quit(退出), reopen(重启), reload(重新加载配置文件)
    -p prefix       : 设置前缀路径(默认是:/usr/local/Cellar/nginx/1.2.6/)
    -c filename     : 设置配置文件(默认是:/usr/local/etc/nginx/nginx.conf)
    -g directives   : 设置配置文件外的全局指令
     
    启动方式建议用
    /usr/local/nginx/sbin/nginx  -c /usr/local/nginx/conf/nginx.conf #通过显示加载配置文件,避免 nginx: [error] open() "/usr/local/nginx/logs/nginx.pid" failed错误
     
    三、负载均衡
    负载的配置文件位置在:
    /usr/local/nginx/conf/nginx.conf
    events {
        use epoll;
        worker_connections      51200;  # Maxclient = work_processes * worker_connections
     }
    http {
    
    ## 用户的 IP 地址 $binary_remote_addr 作为 Key,每个 IP 地址最多有 100 个并发连接
    ## 超过 100 个连接,直接返回 503 
    limit_conn_zone $binary_remote_addr zone=TotalConnLimitZone:40m ;
    limit_conn  TotalConnLimitZone  200;
    limit_conn_log_level notice;
    
    ## 用户的 IP 地址 $binary_remote_addr 作为 Key,每个 IP 地址每秒处理 40 个请求直接返回 503 
    limit_req_zone $binary_remote_addr zone=ConnLimitZone:40m  rate=40r/s;
    limit_req_log_level notice;
    
    log_format  main  '$remote_addr - $remote_user [$time_local] '
                          '$status $body_bytes_sent "$http_referer" '
                          '"$http_user_agent" "$request" "$http_x_forwarded_for"';
    
    fastcgi_connect_timeout 300;
    fastcgi_send_timeout 300;
    fastcgi_read_timeout 300;
    fastcgi_buffer_size 64k; 
    fastcgi_buffers 4 64k; 
    fastcgi_busy_buffers_size 128k; 
    fastcgi_temp_file_write_size 128k; 
    client_header_buffer_size 128k;
    large_client_header_buffers 4 128k;
    
    
     # Configuration of the server group
        upstream appservers {     
            #zone appservers 64k;
    #ip_hash;
           server  10.200.11.101:80    weight=4; #主端口web服务器1地址
           server  10.200.11.102:80    weight=5; #主端口web服务器2地址
        }
        upstream appservers_test {    
            #zone appservers 64k;
    #ip_hash;
           server  10.200.11.101:801       weight=4; #测试端口web服务器1地址
           server  10.200.11.102:801       weight=5; #测试端口web服务器2地址
    
        }
    
      server {
                    listen 80;  #主端口
    
            # Location that proxies requests to the group
            location / {
                proxy_pass http://appservers;
    
                    #proxy_http_version 1.1;
            #proxy_set_header Upgrade $http_upgrade;
            #proxy_set_header Connection keep-alive;        
            #proxy_cache_bypass $http_upgrade;
    
            client_max_body_size 300m;
                    client_body_buffer_size 1024k;
    
            proxy_connect_timeout 600;
            proxy_read_timeout 600;
            proxy_send_timeout 600;
            proxy_buffer_size 64k;
            proxy_buffers   4 32k;
            proxy_busy_buffers_size 64k;
            proxy_temp_file_write_size 64k;
            proxy_set_header Host $host;
            proxy_set_header X-real-ip $remote_addr;
            
        ## 最多 20 个排队, 由于每秒处理 40 个请求 + 20个排队,你一秒最多发送 60 个请求过来,再多就直接返回 503 $
            limit_req zone=ConnLimitZone burst=20 nodelay;
    
        access_log /home/nginx_logs/access.log  main;
    #            health_check;
            }
        }
    
    server {
                  listen 801; #测试端口
    
            # Location that proxies requests to the group
            location / {
                proxy_pass http://appservers_test;
           
            #proxy_http_version 1.1;
            #proxy_set_header Upgrade $http_upgrade;
            #proxy_set_header Connection keep-alive;        
            #proxy_cache_bypass $http_upgrade;
    
            client_max_body_size 300m;
                    client_body_buffer_size 1024k;
    
            proxy_connect_timeout 600;
            proxy_read_timeout 600;
            proxy_send_timeout 600;
            proxy_buffer_size 64k;
            proxy_buffers   4 32k;
            proxy_busy_buffers_size 64k;
            proxy_temp_file_write_size 64k;
            proxy_set_header Host $host;
            proxy_set_header X-real-ip $remote_addr;
    
        ## 最多 20 个排队, 由于每秒处理 40 个请求 + 20个排队,你一秒最多发送 60 个请求过来,再多就直接返回 503 $
            limit_req zone=ConnLimitZone burst=20 nodelay;
    
            access_log  /home/nginx_logs/access_test.log  main;
    #            health_check;
            }
        }
    
    
    }
    
    补充说明:这里配了2个端口80和801,801是测试端口,80是正式端口,对应2台web服务器(iis)也是分别有80和801端口供负载均衡使用。负载均衡算法采用加权轮训。

    Nginx负载均衡一些基础知识:

    nginx 的 upstream目前支持 4 种方式的分配 
    1)、轮询(默认) 
          每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。 
    2)、weight 
          指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况。 
    2)、ip_hash 
          每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。  
    3)、fair(第三方) 
          按后端服务器的响应时间来分配请求,响应时间短的优先分配。  
    4)、url_hash(第三方)

    配置:

    在http节点里添加:

    #定义负载均衡设备的 Ip及设备状态 

    upstream myServer {   

        server 127.0.0.1:9090 down; 
        server 127.0.0.1:8080 weight=2; 
        server 127.0.0.1:6060; 
        server 127.0.0.1:7070 backup; 
    }

    在需要使用负载的Server节点下添加

    proxy_pass http://myServer;

    upstream 每个设备的状态:

    down 表示单前的server暂时不参与负载 
    weight  默认为1.weight越大,负载的权重就越大。 
    max_fails :允许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream 模块定义的错误 
    fail_timeout:max_fails 次失败后,暂停的时间。 
    backup: 其它所有的非backup机器down或者忙的时候,请求backup机器。所以这台机器压力会最轻。

    Nginx还支持多组的负载均衡,可以配置多个upstream  来服务于不同的Server.

    配置负载均衡比较简单,但是最关键的一个问题是怎么实现多台服务器之间session的共享

    下面有几种方法(以下内容来源于网络,第四种方法没有实践.)

    1) 不使用session,换作cookie

    能把session改成cookie,就能避开session的一些弊端,在从前看的一本J2EE的书上,也指明在集群系统中不能用session,否则惹出祸端来就不好办。如果系统不复杂,就优先考虑能否将session去掉,改动起来非常麻烦的话,再用下面的办法。

    2) 应用服务器自行实现共享

    asp.net可以用数据库或memcached来保存session,从而在asp.net本身建立了一个session集群,用这样的方式可以令 session保证稳定,即使某个节点有故障,session也不会丢失,适用于较为严格但请求量不高的场合。但是它的效率是不会很高的,不适用于对效率 要求高的场合。

    以上两个办法都跟nginx没什么关系,下面来说说用nginx该如何处理:

    3) ip_hash

    nginx中的ip_hash技术能够将某个ip的请求定向到同一台后端,这样一来这个ip下的某个客户端和某个后端就能建立起稳固的session,ip_hash是在upstream配置中定义的:

    upstream backend {
      server 127.0.0.1:8080 ;
      server 127.0.0.1:9090 ;
       ip_hash;
    }

    ip_hash是容易理解的,但是因为仅仅能用ip这个因子来分配后端,因此ip_hash是有缺陷的,不能在一些情况下使用:

    1/ nginx不是最前端的服务器。ip_hash要求nginx一定是最前端的服务器,否则nginx得不到正确ip,就不能根据ip作hash。譬如使用的是squid为最前端,那么nginx取ip时只能得到squid的服务器ip地址,用这个地址来作分流是肯定错乱的。

    2/ nginx的后端还有其它方式的负载均衡。假如nginx后端又有其它负载均衡,将请求又通过另外的方式分流了,那么某个客户端的请求肯定不能定位到同一台session应用服务器上。这么算起来,nginx后端只能直接指向应用服务器,或者再搭一个squid,然后指向应用服务器。最好的办法是用location作一次分流,将需要session的部分请求通过ip_hash分流,剩下的走其它后端去。

    4) upstream_hash

    为了解决ip_hash的一些问题,可以使用upstream_hash这个第三方模块,这个模块多数情况下是用作url_hash的,但是并不妨碍将它用来做session共享:

    假如前端是squid,他会将ip加入x_forwarded_for这个http_header里,用upstream_hash可以用这个头做因子,将请求定向到指定的后端:

    可见这篇文档:http://www.sudone.com/nginx/nginx_url_hash.html

    在文档中是使用$request_uri做因子,稍微改一下:

    hash   $http_x_forwarded_for;

    这样就改成了利用x_forwarded_for这个头作因子,在nginx新版本中可支持读取cookie值,所以也可以改成:

    hash   $cookie_jsessionid;

    假如在php中配置的session为无cookie方式,配合nginx自己的一个userid_module模块就可以用nginx自发一个cookie,可参见userid模块的英文文档:
    http://wiki.nginx.org/NginxHttpUserIdModule
    另可用姚伟斌编写的模块upstream_jvm_route:http://code.google.com/p/nginx-upstream-jvm-route/

    参考 1 2
     
     
  • 相关阅读:
    C#与JS实现 获取指定字节长度 中英文混合字符串 的方法
    CKFinder_AspDotNet_2.4 破解方法 去版权
    MVC3中如何输出富文本
    CKEditor与CKFinder整合 MVC3
    vue项目多页配置
    设备宽度
    h5前端项目常见问题汇总
    react分享
    javascript-复制
    vue开发笔记
  • 原文地址:https://www.cnblogs.com/joseph_zheng/p/7001513.html
Copyright © 2020-2023  润新知