• 高并发口罩抢购项目架构演进记录 & 优化经验分享


    背景

    疫情初期某地政府决定发放一批免费口罩面向该市市民,该市市民均可免费预约领取,预约时间为早上9点-12点,因此该场景为限时抢购类型场景,会面临非常大的定时超大流量超大并发问题,在该项目的落地过程中,涉及的架构演变,做了一些记录和思考。

    架构图&分析-V1

    原始架构图示&分析(2月2号晚上22点左右的原始架构)

    2月2号晚上22点左右的原始架构
    客户端走 HTTPS 协议直接访问 ECS;
    ECS 上使用 Nginx 监听 HTTPS 443 端口;
    Nginx 反代 Tomcat,Nginx 处理静态文件,Tomcat 处理动态请求;
    程序先去 Redis 查缓存,如未命中则去数据库查询数据,同时Redis 与 Mysql 之间的数据同步靠程序控制。

    这样架构设计:

    优点:易管理,易部署;
    缺点:性能差,无扩展性,存在单点风险;
    结果:事实证明该应用一经上线就立刻被打挂了,因未知原因预约页面被泄露,导致还未到预约时间,服务即被打挂。

    架构图&分析-V2

    随后我方介入,进行架构调整,24点左右找的我们,早上9点要开服,时间太紧,任务太重,程序不能动的情况下,几十万的并发架构如何做?

    2月3号早上9点左右的架构,4号也恢复了这个架构)

    2月3号早上9点左右的架构

    接入 SLB,通过镜像横向扩展负载能力;
    接入读写分离数据库架构,通过阿里云数据库自动进行读写分离,自动同步数据;
    调整 Nginx 协议;
    同架构备集群启用(域名解析做了两个A记录);
    分析访问日志发现失败原因在获取短信和登陆初始化 Cookie 的点上。

    这样架构设计:

    优点:增加了高可用性,扩展了负载能力;
    缺点:对流量预估不足,静态页面也在 ECS 上,因此 SLB 的出带宽一度达到最大值 5.X G,并发高达 22w+。
    结果:因为流量太大导致用户一度打不开页面,同时由于域名服务商 XX 的限制,客户无法自助添加解析,且当晚联系不到域名服务商客服,导致 CDN 方案搁浅。

    架构图&分析-V3

    2月5号的架构

    接入 CDN 分流超大带宽;
    取消 Nginx 的代理;
    做了新程序无法准时上线的灾备切换方案(没想到还真用到了);
    使用虚拟服务器组做新老程序的切换,但是缺点是一个七层监听的 SLB 后端只能挂 200 个机器,再多 SLB 也扛不住了,导致老程序刚承接的时候再度挂掉;
    5 号使用这个架构上线,7 分钟库存售罄,且体验极度流程,丝般顺滑,健康同学开发的新程序真是太爽的。

    这样架构设计:

    优点:CDN 负担静态资源的流量降低了 SLB 的出带宽,压测的效果也非常理想;
    缺点:需要多一个独立的域名在页面里面,涉及跨域,4 号临开服之际测试发现入库&预约短信乱码返回,紧急切换回了老程序,即二代架构。
    理想架构图&分析-V4

    理想架构

    主域名接入CDN;
    CDN通过设置回源 Http、Https 协议去访问 SLB 的不同监听实现新老程序之间的切换,具体实现为回源协议对应。不同监听,监听对应不同的程序。

    这样架构设计:

    优点:静态加速降低SLB带宽,动态回源,无跨域问题,切换方便;
    缺点:仍需手工设置,镜像部署ecs不方便,如果时间充足,可以直接上容器的架构该有多美好呢,一个 scale 可以扩出来几十上百的 pod,也可以做节点自动扩容。

    总结

    时间紧任务重,遇到了N多的坑:

    vcpu 购买额度;
    SLB 后端挂载额度;
    客户余额不足欠费停机;
    域名服务商解析需要联系客服才能添加;
    第一次考虑 CDN 架构的时候未考虑跨域问题;
    新程序开发期间未连接主库测试,导致上线失败(主库乱码);
    第一次(3号)被打挂的时候只关注了 SLB 的流量,未详细分析失败最多的环节;
    上线前压测缺失,纯靠人工测试功能;
    压测靠人手一台 Jmeter(4号晚上到5号早上引入了 PTS 进行压测);
    突然想起来客户原始的程序是放在 Windows上的,Windows + 烂程序性能真的极差;
    这个“小项目”前后竟然耗费了小十万,如果一开始就给我们做的话,应该可以减少一半的成本。

    最后的成果统计(采样分析,实际数据比这个还大):

    一树数据统计 UA 并发 QPS 带宽 ECS集群数量 程序版本 备注
    20200203 348966 221947 18534 5G 293 老程序 持续五小时,崩溃堆积
    20200204 157830 123143 14141 4G 284 老程序 持续五小时,崩溃堆积
    20200205 144893 63434 4248 1.3G 150 老程序 7分钟库存售罄,体验非常流畅

    最后上线的三代架构,为了保险起见上了 150 台机器,但是根据活动期间的观察,以及对压测结果的评估,上 50 台机器应该就可以抗住了,从持续 5 小时一直崩溃被终端用户骂街,到 7 分钟库存售罄的领导赞赏,虽然经历了 3 个通宵的戮战,依然可以隐隐约约感觉到身心都得到了升华。

    各种优化笔记

    参数优化
    网络调参

    net.ipv4.tcp_max_tw_buckets = 5000 --> 50000
    net.ipv4.tcp_max_syn_backlog = 1024 --> 4096
    net.core.somaxconn = 128 --> 4096
    net.ipv4.tcp_tw_reuse = 1
    net.ipv4.tcp_timestamps = 1(5和6同时开启可能会导致nat上网环境建联概率失败)
    net.ipv4.tcp_tw_recycle = 1
     /etc/security/limits.conf
    * soft nofile 65535
    * hard nofile 65535
    

    nginx参数优化

    worker_connections  1024-->10240;
    worker_processes  1-->16;(根据实际情况设置,可以设置成auto)
    worker_rlimit_nofile 1024-->102400;
    listen 80 backlog 511-->65533;
    

    部分场景也可以考虑nginx开启长连接来优化短链接带来的开销

    架构优化

    扩容SLB后端ECS数量,ECS 配置统一;
    Nginx 反代后端 upstream 无效端口去除;
    云助手批量处理服务,参数优化,添加实例标识;(划重点,大家批量使用 ECS,可以考虑利用云助手这个产品)
    云监控大盘监控,ECS、SLB、DCDN、Redis等;
    调整 SLB 为 7 层监听模式,前 7 后 4 关闭会话保持导致登录状态失效。
    程序优化
    添加 GC log,捕捉 GC 分析问题,设置进程内存;

    /usr/bin/java -server -Xmx8g -verbose:gc -XX:+PrintGCDetails -Xloggc:/var/log/xxxx.gc.log -Dserver.port=xxxx -jar /home/app/we.*****.com/serverboot-0.0.1-SNAPSHOT.jar
    

    优化短信发送逻辑,登陆先查询 Redis 免登 Session,无免登 Session 再允许发送短信验证码(降短信的量,优化登陆体验);

    jedis连接池优化;

    maxTotal 8-->20
    acceptcount优化(对标somaxconn)
    bug:springboot1.5 带的 jedis2.9.1 的 Redis 连接泄漏的问题,导致 Tomcat 800 进程用满后都无限等待 Redis 连接。后来进一步调研发现这个问题在 2.10.2 已经修复,而且 2.10.2 向后兼容 2.9.1。

    数据库优化

    Redis 公网地址变更为内网地址;
    Redis Session 超时设置缩短,用于释放 Redis 连接;
    慢SQL优化(RDS的 CloudDBA 非常好用);
    添加只读实例,自动读写分离;
    优化 backlog;
    添加读写分离实例数量。

  • 相关阅读:
    240 Search a 2D Matrix II 搜索二维矩阵 II
    239 Sliding Window Maximum 滑动窗口最大值
    bzoj5029: 贴小广告&&bzoj5168: [HAOI2014]贴海报
    bzoj5178: [Jsoi2011]棒棒糖
    bzoj5293: [Bjoi2018]求和
    bzoj5194: [Usaco2018 Feb]Snow Boots
    bzoj2007: [Noi2010]海拔
    bzoj4956: [Wf2017]Secret Chamber at Mount Rushmore
    bzoj3296: [USACO2011 Open] Learning Languages
    bzoj4887: [Tjoi2017]可乐
  • 原文地址:https://www.cnblogs.com/pengpengboshi/p/13497700.html
Copyright © 2020-2023  润新知