• nginx fastcgi 超时问题


      在处理导入导出大数据的情况下,一般要调整以下一些参数:

      1.php.ini:  set_time_limit(0);  max_execution_time=1200;  这个是程序执行时间;

          2.php-fpm.conf: request_terminate_timeout 1200;  

          3.nginx_conf:

      fastcgi_connect_timeout 1200;

      fastcgi_send_timeout 1200;

      fastcgi_read_timeout 1200;

          这些数据最好保持一致,详细的请下以下内容:      

      在网站后台导数据时,出现超时的情况。经过网上查找资料和试验

      主要在下面几个配置的限制

      1.php配置

       第一种:set_time_limit(0); 永不过期

       第二种: php.ini   max_execution_time  = 1200

       ----实际是在本地用apache测试的时候已调整,估计nginx也是一样需要做调整

       一般时间较长的导入操作,数据量也是较大的,需要根据实际需要调整php.ini memory_limit = 64M。如果代码中有重新配置这个值,也需要检查。

      2.php-fpm.conf 

      request_terminate_timeout 1200

      设置为20分钟过期

      ----配置完成后一定记得重启哦。我就是忘记重启,然后以为这个配置改了也没用,浪费了不少时间。

      service php-fpm reload(或restart)  一般配置修改都建议用reload

      3.nginx.conf

      fastcgi_connect_timeout 1200;

      fastcgi_send_timeout 1200;

      fastcgi_read_timeout 1200;

      -----主要应该是后面两个参数,设置为20分钟。当然我没做把第一个参数改小的测试,条件允许的话可测试下。

      配置好后重启

      service nginx reload 

      依然推荐使用reload

    ----------------超时的问题以上配置应该基本上能解决问题。这种大数量导入主要从文件大小和超时问题去考虑。涉及内存大小、超时时间配置。

    本次调整主要是nginx服务器出现502 bad gateway的错误,超时是这个错误的原因之一。其他包含连接数、缓冲区大小等等也是影响因素。这个不做详细讨论。

     参考:https://www.cnblogs.com/yangcclg/p/5286381.html

    人生商业模式=能力(可怕的勤奋)+ 效率(效率,方法,工具)+杠杆(团队,产品,资本,影响力)
  • 相关阅读:
    log4j 配置文件
    log4j安装与简介
    tomcat服务
    查看系统网络连接打开端口、系统进程、DOS打开文件
    find查找指定类型文件并删除
    git/github在windows上使用
    VIM配置自动提示功能
    VIM Taglist安装配置和使用
    python Scipy积分运算大全(integrate模块——一重、二重及三重积分)
    python matplotlib绘图大全(散点图、柱状图、饼图、极坐标图、热量图、三维图以及热图)
  • 原文地址:https://www.cnblogs.com/lovven/p/12945717.html
Copyright © 2020-2023  润新知