zoukankan      html  css  js  c++  java
  • nginx 配置文件相关参数

    1、worker_processes :通常配置成cpu的总核数,或者其2倍,性能会更好。这可以
    减少进程间切换带来的消耗。还可以同时使用worker_cpu_affinity来绑定cpu,使得每个worker进程独享一个实现完全的并发,性能更好,不过这个只对linux系统有效。

    2、events:里面的事件模型,Linux推荐使用epoll模型,FreeBSD推荐采用kqueue
    3、worker_rlimit_nofile:描述一个nginx进程打开的最多的文件数目。配置成跟
      linux内核下文件打开数一致就可以了。可以通过ulimit -n 来查看,新装的系
      统默认是1024,CentOS中可以如下方式进行修改:
      在/etc/security/limits.conf最后增加:
      * soft nofile 65535
      * hard nofile 65535
      * soft nproc 65535
      * hard nproc 65535

    4、worker_connections:每个进程允许的最多连接数,默认是1024,可以设置大一些。
      理论上并发总数是worker_processes和worker_connections的乘积,
    5、worker_connections值的设置跟物理内存大小有关,因为系统可以打开的最大文件数和内
    存大小成正比,一般1GB内存的机器上可以打开的文件数大约是10万左右,所以,
    worker_connections 的值需根据 worker_processes 进程数目和系统可以打开的最大文件
    总数进行适当地进行设置。
    6、keepalive_timeout:设置到65左右就可以
    7、client_header_buffer_size:设置请求的缓存,设置为4k,通常为系统分页大小的整数
    倍,可以通过getconf PAGESIZE 来查看系统分页大小。
    8、对打开文件设置缓存
    open_file_cache max=建议设置成和每个进程打开的最大文件数一致 inactive=60s;
    open_file_cache_valid 90s;
    open_file_cache_min_uses 2;
    open_file_cache_errors on;
    9、尽量开启Gzip压缩,gzip_comp_level通常设置成3-5,高了浪费CPU
    10、Error日志优化:运行期间设置为crit,可以减少I/O

    11、access日志优化:如果使用了其他统计软件,可以关闭日志,来减少磁盘写,或者写入内
    存文件,提高I/O效率。
    12、sendfile指令指定 nginx 是否调用 sendfile 函数(zero copy 方式)来输出文件,通常
    应设置成on,如果是下载等应用磁盘IO重负载应用,可设置为 off
    13、Buffers size优化:如果buffer size太小就会到导致nginx使用临时文件存储response,
    这会引起磁盘读写IO,流量越大问题越明显。
    14、client_body_buffer_size 处理客户端请求体buffer大小。用来处理POST提交数
    据,上传文件等。client_body_buffer_size 需要足够大以容纳需要上传的POST数据。同
    理还有后端的buffer数据。
    15、worker_priority进程优先级设置:Linux系统中,优先级高的进程会占用更多的系统资
    源,这里配置的是进程的静态优先级,取值范围-20到+19,-20级别最高。因此可以把这个
    值设置小一点,但不建议比内核进程的值低(通常为-5)
    16、 合理设置静态资源的浏览器缓存时间,尽量用浏览器缓存
    17、负载均衡锁accept_mutex,建议开启,默认就是开启的
    18、如果使用SSL的话,而且服务器上有SSL硬件加速设备的话,请开启硬件加速

    https://www.cnblogs.com/xiaoliangup/p/9185259.html

  • 相关阅读:
    分布式文件存储系统-HDFS
    Java中的常用类
    分布式协调框架ZooKeeper
    【Redis】Redis慢查询
    kubectl工具管理应用
    kubectl命令管理
    To check your hdfs port use the following command in linux
    hadoop HDFS常用文件操作命令
    在scala中关于split以及正则表达式
    pandas入门之Series
  • 原文地址:https://www.cnblogs.com/xuhansan/p/11804756.html
Copyright © 2011-2022 走看看