一. Nginx介绍
1.1 引言
- 为什么要学Nginx
- 问题1: 客户端到底要将请求发送给哪台服务器
- 问题2: 如果所有客户端的请求都发送给了服务器1
- 问题2: 客户端发送的请求可能是申请动态资源的, 也有申请静态资源的
- 服务器搭建集群后
服务器1
客户端 服务器2 数据库
服务器3
...
- 使用Nginx做反向代理服务器
服务器1
客户端==>Nginx 服务器2 数据库
服务器3
...
1.2 Nginx介绍
- Nginx是由俄罗斯人研发的, 应对Rambler的网站, 并且2004年发布的第一个版本
- Nginx的特点
- 稳定性极强, 7*24小时不间断运行
- Nginx提供了非常丰富的配置实例
- 占用内存小, 并发能力强
二. Nginx的安装
2.1 安装Nginx
cd /opt/
mkdir docker_nginx
cd docker_nginx/
vi docker-compose.yml
- docker-compose.yml
version: '3.1'
services:
nginx:
restart: always
image: daocloud.io/library/nginx:1.9.1
container_name: nginx
ports:
- 80:80
2.2 Nginx的配置文件
- 关于Nginx的核心配置文件nginx.conf
user nginx;
worker_processes 1;
error_log /var/log/nginx/error.log warn;
#以上统称为全局快
#worker_processes的数值越大, Nginx的并发能力越强
#error_log 代表Nginx的错误日志存放的位置
events {
worker_connections 1024;
}
#event块
#worker_connections的数值越大, Nginx的并发能力越强
http {
include /etc/nginx/mime.types;
default_type application/octet-stream;
server {
listen 80;
server_name localhost;
location / {
root /usr/share/nginx/html;
index index.html index.htm;
}
#location块
#root: 将接收到的请求根据/usr/share/nginx/html去查找静态资源
#index: 默认去上述的路径中找到index.html或者index.htm
}
#server块
#listen: 代表Nginx监听的端口号
#location: 代表Nginx接收请求的ip
}
#http块
#include代表引入一个外部的文件=>/etc/nginx/mime.types中存放着大量的媒体类型
#include /etc/nginx/conf.d/*.conf=>引入了conf.d目录下的以.conf结尾的配置文件
2.3 修改docker-compose.yml文件
- 加上数据卷
- volumes:
- /opt/docker_nginx/conf.d/:/etc/nginx/conf.d
version: '3.1'
services:
nginx:
restart: always
image: daocloud.io/library/nginx:1.9.1
container_name: nginx
ports:
- 80:80
volumes:
- /opt/docker_nginx/conf.d/:/etc/nginx/conf.d
docker-compose down
cd /opt/docker_nginx/
vi docker-compose.yml
docker-compose build
docker-compose up -d
ls
cd conf.d/
vi default.conf
#加上下方的内容
server{
listen 80;
server_name localhost;
location / {
root /usr/share/nginx/html;
index index.html index.htm;
}
}
docker-compose restart
三. Nginx的反向代理
3.1 正向代理和反向代理介绍
- 正向代理:
- 正向代理服务器是由客户端设立的
- 客户端了解代理服务器和目标服务器都是谁
- 帮助咱们实现突破访问权限, 提高访问速度, 对目标服务器隐藏客户端的ip地址
- 反向代理
- 反向代理服务器是配置在服务端的
- 客户端是不知道访问的是哪一台服务器的
- 达到负载均衡, 并且可以隐藏服务器真正的ip地址
3.2 基于Nginx实现反向代理
- 准备一个目标服务器
- 启动之前的tomcat服务器
- 编写Nginx的配置文件default.conf, 通过Nginx访问到tomcat服务器
- vi default.conf
server{
listen 80;
server_name localhost;
#基于反向代理访问到Tomcat服务器
location / {
proxy_pass http://192.168.59.129:8080/;
}
}
3.3 关于Nginx的location路径映射
- 优先级关系
- (location = ) > (location /xxx/yyy/zzz) > (location ^~) > (location ~, ~*) > (location /起始路径) > (location /)
#1. =匹配
location = / {
#精准匹配, 主机名后面不能带任何的字符串
}
#2. 通用匹配
location /xxx {
#匹配所有以/xxx开头的路径
}
#3. 正则匹配
location ~ /xxx {
#匹配所有以/xxx开头的路径
}
#4. 匹配开头路径
location ^~ /images/ {
#匹配所有以/images开头的路径
}
#5. ~* .(gif|jpg|png)$ {
#匹配以gif或者jpg或者png结尾的路径
}
server{
listen 80;
server_name localhost;
location = /index/ {
proxy_pass http://192.168.59.129:8082/; #Tomcat首页
}
location ^~ /ssm/ {
proxy_pass http://192.168.59.129:8082/ssm1/; #SSM首页
}
#基于反向代理访问到Tomcat服务器
location / {
proxy_pass http://192.168.59.129:8080/; #Hello Nginx!
}
}
四. Nginx负载均衡
Nginx为我们提供了三种负载均衡的策略
- 轮询
- 将客户端发起的请求, 平均的分配给每一台服务器
- 权重
- 会将客户端的请求, 根据服务器的权重值不同, 分配不同的数量
- ip_hash
- 基于发起请求的客户端的ip地址不同, 它始终会将请求发送到指定的服务器上
4.1 轮询
- 想实现Nginx轮询负载均衡机制只需要在配置文件default.conf中添加以下内容
upstream my-server{
server 192.168.59.129:8080;
server 192.168.59.129:8082;
}
server{
listen 80;
server_name localhost;
location / {
proxy_pass http://my-server/;
}
}
4.2 权重
- 实现权重的方式weight=XX, XX越大(数字),占得权重比例越高
upstream my-server{
server 192.168.59.129:8080 weight=10; #Hello
server 192.168.59.129:8082 weight=2; #Tomcat
}
server{
listen 80;
server_name localhost;
location / {
proxy_pass http://my-server/;
}
}
4.3 ip_hash
- ip_hash实现
upstream my-server{
ip_hash;
server 192.168.59.129:8080 weight=10; #Hello
server 192.168.59.129:8082 weight=2; #Tomcat
}
server{
listen 80;
server_name localhost;
location / {
proxy_pass http://my-server/;
}
}
五. Nginx动静分离
- Nginx并发能力公式
- worker_processes * worker_connections / 4 | 2 = Nginx最终的并发能力
- 动态资源需要 / 4
- 客户端=>Nginx=>服务器
- 服务器=>Nginx=>客户端
- 静态资源需要 / 2
- 客户端=>Nginx
- Nginx=>客户端
- Nginx通过动静分离, 来提升Nginx的并发能力, 更快的给用户响应
5.1 动态资源代理
#配置如下
location / {
proxy_pass 路径;
}
5.2 静态资源代理
#配置如下
location / {
root 静态资源路径;
index 默认访问路径下的什么资源;
autoindex on; #代表展示静态资源下的全部内容, 以列表的形式展开
}
#先修改docker-compose.yml, 添加数据卷, 映射到Nginx服务器的一个目录
#添加了index.html和1.png静态资源
#修改配置文件
version: '3.1'
services:
nginx:
restart: always
image: daocloud.io/library/nginx:1.9.1
container_name: nginx
ports:
- 80:80
volumes:
- /opt/docker_nginx/conf.d/:/etc/nginx/conf.d
- /opt/docker_nginx/img/:/data/img
- /opt/docker_nginx/html/:/data/html
docker-compose down
docker-compose up -d
ls
cd html/
vi index.html
#<h1>Hello Static Resource!</h1>
#然后找一张图片拖拽到Linux的root下
cd ~
mv Thread.png 1.png
mv 1.png /opt/docker_nginx/img/
cd /opt/docker_nginx/img/
ls
cd ../conf.d/
vi default.conf
#配置如下
upstream my-server{
ip_hash;
server 192.168.59.129:8080 weight=10; #Hello
server 192.168.59.129:8082 weight=2; #Tomcat
}
server{
listen 80;
server_name localhost;
#代理到html静态资源
location /html {
root /data;
index index.html;
}
#代理到img静态资源
location /img {
root /data;
autoindex on;
}
}
cd ../
docker-compose restart
#访问如下网址
#http://192.168.59.129/html/
#http://192.168.59.129/html/index.html
#http://192.168.59.129/img/
#http://192.168.59.129/img/1.png
六. Nginx集群
6.1 引言
- 单点故障: 因为Nginx宕机, 导致整个程序的崩溃
- 如何避免
- 准备多台Nginx
- 准备Keepalived, 监听Nginx的健康情况
- 准备haproxy, 提供一个虚拟的路径, 统一的去接收用户的请求
6.2 搭建步骤
6.2.1 Dockerfile
FROM nginx:1.13.5-alpine
RUN apk update && apk upgrade
RUN apk add --no-cache bash curl ipvsadm iproute2 openrc keepalived
COPY entrypoint.sh /entrypoint.sh
RUN chmod +x /entrypoint.sh
CMD ["/entrypoint.sh"]
6.2.2 entrypoint.sh
#!/bin/bash
#/usr/sbin/keepalived -n -l -D -f /etc/keepalived/keepalived.conf --dont-fork --log-console &
/usr/sbin/keepalived -D -f /etc/keepalived/keepalived.conf
nginx -g "daemon off;"
6.2.3 docker-compose.yml
version: '3.1'
services:
nginx_master:
build: #构建自定义镜像
context: ./ #指定dockerfile文件的所在路径
dockerfile: ./Dockerfile #指定Dockerfile文件名称
ports:
- 8081:80
volumes:
- ./index-master.html:/usr/share/nginx/html/index.html
- ./favicon.ico:/usr/share/nginx/html/favicon.ico
- ./keepalived-master.conf:/etc/keepalived/keepalived.conf
networks:
static-network:
ipv4_address: 172.20.128.2
cap_add:
- NET_ADMIN
nginx_slave:
build:
context: ./
dockerfile: ./Dockerfile
ports:
- 8082:80
volumes:
- ./index-slave.html:/usr/share/nginx/html/index.html
- ./favicon.ico:/usr/share/nginx/html/favicon.ico
- ./keepalived-slave.conf:/etc/keepalived/keepalived.conf
networks:
static-network:
ipv4_address: 172.20.128.3
cap_add:
- NET_ADMIN
proxy:
image: haproxy:1.7-alpine
ports:
- 80:6301
volumes:
- ./haproxy.cfg:/usr/local/etc/haproxy/haproxy.cfg
networks:
- static-network
networks:
static-network:
ipam:
config:
- subnet: 172.20.0.0/16
6.2.4 keepalived-master.conf
vrrp_script chk_nginx {
script "pidof nginx"
interval 2
}
vrrp_instance VI_1 {
state MASTER
interface eth0 #容器内部的网卡名称
virtual_router_id 33
priority 200 #优先级
advert_int 1
authentication {
auth_type PASS
auth_pass letmein
}
virtual_ipaddress {
172.20.128.50 #虚拟路径
}
track_script {
chk_nginx
}
}
6.2.5 keepalived-slave.conf
vrrp_script chk_nginx {
script "pidof nginx"
interval 2
}
vrrp_instance VI_1 {
state BACKUP
interface eth0 #容器内部的网卡名称
virtual_router_id 33
priority 100 #优先级
advert_int 1
authentication {
auth_type PASS
auth_pass letmein
}
virtual_ipaddress {
172.20.128.50 #虚拟路径
}
track_script {
chk_nginx
}
}
6.2.6 haproxy.cfg
global
log 127.0.0.1 local0
maxconn 4096
daemon
nbproc 4
defaults
log 127.0.0.1 local3
mode http
option dontlognull
option redispatch
retries 2
maxconn 2000
balance roundrobin
timeout connect 5000ms
timeout client 5000ms
timeout server 5000ms
frontend main
bind *:6301
default_backend webserver
backend webserver
server nginx_master 172.20.128.50:80 check inter 2000 rise 2 fall 5
6.2.7 index-master.html
<h1>master</h1>
6.2.8 index-slave.html
<h1>slave</h1>
6.3 说明
#将以上8个文件拖拽到/opt/docker_nginx_cluster/(通过Xterm的sftp)
cd /opt/
mkdir docker_nginx_cluster
cd docker_nginx_cluster
docker-compose up -d
docker ps -a
#然后访问http://192.168.59.129:8081/ 会看到master, 访问http://192.168.59.129:8082/ 会看到slave
#访问http://192.168.59.129 看到master(默认)
#然后我们把8081端口关闭
docker stop 容器ID
#再次访问http://192.168.59.129 会看到slave
#当8081端口的Nginx服务器挂了之后, 我们还有8082端口的Nginx服务器, 依旧不影响使用
#至此Nginx集群搭建成功
6.4 出现的错误
- 首先, 如果遇到错误一定要先去查看错误日志
- 错误1:
- standard_init_linux.go:228: exec user process caused: no such file or directory
#我在运行docker-compose up -d命令后, 发现nginx_master和nginx-slave这两个容器刚启动就关闭了,然后就去看日志
docker ps -a
docker logs -f 容器ID
#-f: 可以查看日志的最后几行
#然后发现如下错误
#standard_init_linux.go:228: exec user process caused: no such file or directory
#百度了一下是dos字符与unix字符的问题
#因为我使用的notepad++来编辑文件并上传到服务器中,默认是以DOS文本格式来创建的, 需要把文件转换下字符
解决
- 安装dos2unix
yum -y install dos2unix
- 将相关文件转换一下字符
dos2unix Dockerfile
- 重新构建
docker-compose build
#如果重新构建还不行, 先把所有容器停止再删除后重新启动
docker stop $(docker ps -qa)
docker rm $(docker ps -qa)
docker-compose up -d
- 错误2:
- ERROR: Pool overlaps with other one on this address space
- 在docker中创建networks的时候有时候会报ERROR: Pool overlaps with other one on this address space的错误,这是因为目标网段已经存在的原因,通常这发生在将要创建的networks手动指定了subnet网段地址的时候
- 这时有两个选择,一是查看已存在的网段是否有容器正在使用,如果没再用了可以删除该网段对应的网卡,二是修改目标的subnet网段地址。
docker network ls
#查看docker网卡
docker network rm 网卡id
#删除docker网卡
docker network inspect 网卡id
#查看docker网卡的相关详细信息