nginx 配置

nginx是比较常用的反向代理服务器和负载均衡器,性能非常好,其主要通过配置来实现各种功能,配置如下:

#配置用户或者组,默认为nobody nobody。
#user  nobody;

#工作进程数,一般设置为CPU的数量或者两倍
#worker_processes最多开启8个,8个以上性能提升不会再提升了,而且稳定性变得更低,所以8个进程够用了。
#使用lscpu 来查询系统cpu的个数
worker_processes  4;  

#仅适用于linux,使用该选项可以绑定worker进程和CPU,使得不会互相抢CPU
worker_cpu_affinity 0001 0010 0100 1000
#8核配置
#worker_cpu_affinity 00000001 00000010 00000100 0000100000010000 00100000 01000000 10000000;

#同时连接的数量受限于系统上可用的文件描述符的数量,因为每个套接字将打开一个文件描述符。 
#如果NGINX尝试打开比可用文件描述符更多的套接字,会发现error.log中出现Too many opened files的信息
#先用ulimit -n 命令查询linux系统的文件描述符的数量,worker_rlimit_nofile设置的值最好与ulimit -n保持一致。
#文件资源限制的配置可以在/etc/security/limits.conf设置,针对root/user等各个用户或者*代表所有用户来设置。
#*   soft   nofile   65535
#*   hard  nofile   65535
worker_rlimit_nofile 65535

#进程pid文件
#pid        logs/nginx.pid;  


#制定全局日志路径和级别。
#级别依次为:debug|info|notice|warn|error|crit|alert|emerg 
#error_log  logs/error.log;
#error_log  logs/error.log  notice;

 

#events块:配置影响nginx服务器或与用户的网络连接。
#每个进程的最大连接数,选取哪种事件驱动模型处理连接请求,是否允许同时接受多个网路连接,开启多个网络连接序列化等。
events {

    #使用epoll的I/O 模型。linux建议epoll,FreeBSD建议采用kqueue,window下不指定。
    use epoll;
    
    #单个worker进程最大连接数(最大连接数=连接数*进程数)    
    worker_connections  1024;    
    
    #设置一个进程是否同时接受多个网络连接,默认为off
    multi_accept on;  
    
    #accept_mutex参数将使每个可用的worker进程逐个接受新连接。 默认情况下,该标志设置为on。
    #如果accept_mutex为off,所有可用的worker将从等待状态唤醒,但只有一个worker处理连接。 这导致惊群现象,每秒重复多次。 
    #这种现象导致服务器性能下降,因为所有被唤醒的worker都在占用CPU时间。 这导致增加了非生产性CPU周期和未使用的上下文切换。
    accept_mutex on; 
    
    #设置http链接请求完成之后 还要保持多长时间,默认是75S,由于很多浏览器只支持60S,所以设置为60即可。
    keepalive_timeout 60;
    
    
    #客户请求头缓冲大小,默认32位是8k,64位是16k。 
    client_header_buffer_size 4k;
    
    #这个将为打开文件指定缓存,默认是没有启用的,max指定缓存数量,
    #建议和打开文件数一致,inactive 是指经过多长时间文件没被请求后删除缓存。
    open_file_cache max=65535 inactive=60s;
    
    #这个是指多长时间检查一次缓存的有效信息。
    open_file_cache_valid 80s;    
    
    #指令中的inactive 参数时间内文件的最少使用次数,如果超过这个数字,文件描述符一直是在缓存中打开的,
    #如果有一个文件在inactive 时间内一次没被使用,它将被移除。
    open_file_cache_min_uses 1;
    
    #指定了当搜索一个文件时是否缓存错误信息,也包括再次给配置中添加文件。我们也包括了服务器模块,这些是在不同文件中定义的。
    #如果你的服务器模块不在这些位置,你就得修改这一行来指定正确的位置。
    open_file_cache_errors on;
}


#http块:可以嵌套多个server,配置代理,缓存,日志定义等绝大多数功能和第三方模块的配置。
#如文件引入,mime-type定义,日志自定义,是否使用sendfile传输文件,连接超时时间,单连接请求数等。
http {
    
    #文件扩展名与文件类型映射表
    include       mime.types;
    
    #默认文件类型
    default_type  application/octet-stream;
    
    #默认编码
    #charset utf-8;
    
    
    #日志格式设定
    #$remote_addr与$http_x_forwarded_for用以记录客户端的ip地址;
    #$remote_user:用来记录客户端用户名称;
    #$time_local: 用来记录访问时间与时区;
    #$request: 用来记录请求的url与http协议;
    #$status: 用来记录请求状态;成功是200;
    #$body_bytes_sent :记录发送给客户端文件主体内容大小;
    #$http_referer:用来记录从那个页面链接访问过来的;
    #$http_user_agent:记录客户浏览器的相关信息;
    #通常web服务器放在反向代理的后面,这样就不能获取到客户的IP地址了,通过$remote_add拿到的IP地址是反向代理服务器的iP地址。
    #反向代理服务器在转发请求的http头信息中,可以增加x_forwarded_for信息,用以记录原有客户端的IP地址和原来客户端的请求的服务器地址。

    #访问日志格式
    #log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
    #                  '$status $body_bytes_sent "$http_referer" '
    #                  '"$http_user_agent" "$http_x_forwarded_for"';

    #访问日志位置
    #access_log  logs/access.log  main;
    
    #取消服务日志 
    #access_log off;  

    #允许sendfile方式传输文件,默认为off,可以在http块,server块,location块
    #开启文件传输,一般应用都应设置为on;若是有下载的应用,则可以设置成off来平衡网络I/O和磁盘的I/O来降低系统负载
    sendfile        on;
    
    #此选项允许或禁止使用socke的TCP_CORK的选项,此选项仅在使用sendfile的时候使用
    #tcp_nopush     on;
    
    #开启目录列表访问,合适下载服务器,默认关闭。
    #autoindex on;
    
    
    
    #告诉nginx不要缓存数据,而是一段一段的发送--当需要及时发送数据时,就应该给应用设置这个属性,
    #这样发送一小块数据信息时就不能立即得到返回值。
    tcp_nodelay on;

    ##设置http链接请求完成之后 还要保持多长时间,单位是秒
    keepalive_timeout  65;
    
    

    #gzip模块设置,使用 gzip 压缩可以降低网站带宽消耗,同时提升访问速度。
    #开启gzip压缩输出
    gzip on; 
    
    #最小压缩文件大小,小于这个大小就不用压缩。
    gzip_min_length 1k;
    
    #压缩缓冲区大小,表示申请4个单位为32K的内存作为压缩结果流缓存,默认值是申请与原始数据大小相同的内存空间来存储gzip压缩结果。   
    gzip_buffers 4 32k; 
    
    #压缩版本(默认1.1,前端如果是squid2.5请使用1.0 
    gzip_http_version 1.1; 
    
    #压缩比例,用来指定GZIP压缩比,1压缩比最小,处理速度最快,9压缩比最大,传输速度快,但是处理慢,也比较消耗CPU资源。
    gzip_comp_level 4;   
    
    #压缩类型,默认就已经包含textml,所以下面就不用再写了,写上去也不会有问题,但是会有一个warn。    
    gzip_types text/plain text/css application/json application/x-javascript text/xml application/xml application/xml+rss text/javascript;  
    
    #varyheader支持,改选项可以让前端的缓存服务器缓存经过GZIP压缩的页面,例如用Squid缓存经过nginx压缩的数据
    gzip_vary on;

    #开启限制IP连接数的时候需要使用
    #limit_zone crawler $binary_remote_addr 10m;
    
    #nginx的upstream目前支持4种方式的分配
    #1、轮询(默认):每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。
    #2、ip_hash:每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。
    #3、fair(第三方):按后端服务器的响应时间来分配请求,响应时间短的优先分配。
    #4、url_hash(第三方):按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效。

    
    #每个设备的状态设置为:
    #1.down表示单前的server暂时不参与负载
    #2.weight为weight越大,负载的权重就越大。
    #3.max_fails:允许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream模块定义的错误
    #4.fail_timeout:max_fails次失败后,暂停的时间。
    #5.backup: 其它所有的非backup机器down或者忙的时候,请求backup机器。所以这台机器压力会最轻。
    
    #负载均衡配置
    upstream  my_tomcat{
        
        server 127.0.0.1:8081 weight=3 max_fails=3  fail_timeout=20s;
        server 127.0.0.1:8082 weight=3 max_fails=3  fail_timeout=20s;
        server 127.0.0.1:8083 weight=4 max_fails=3     fail_timeout=20s;
    
    }
    
    # 这种方式通常用于,是否限速依赖于指定条件的时候
    #if ($slow) {
    #    set $limit_rate 4k;                 
    #}

    #配置虚拟主机的相关参数,一个http中可以有多个server。
    #main段和events段对全局有效,称为全局配置。
    server {
        
        #监听端口
        listen       81;
        
        #域名可以有多个,用空格隔开
        server_name  localhost localhost;
    
        
        #charset koi8-r;

        #访问日志,设置本虚拟主机的日志路径和级别
        #级别依次为:debug|info|notice|warn|error|crit|alert|emerg 
        #access_log  logs/host.access.log  main;
        #error_log    logs/error.log;
        
        
        
        #匹配URI的方式,按优先级依次为:
        #    =PATH        精确匹配路径
        #    ^~PATH        使用正则表达式匹配URI的前半段
        #    ~PATH        使用正则表达式匹配URI,区分大小写
        #    ~*PATH        使用正则表达式匹配URI,不区分大小写
        #    PATH        直接使用PATH匹配,表示在PATH路径下的资源
        #location块:配置请求的路由,以及各种页面的处理情况。
        location / {
           
            #和上面的upstream 一致,这样就可以
            proxy_pass http://my_tomcat;
            
            
            proxy_redirect off;
            
            #后端的Web服务器可以通过X-Forwarded-For获取用户真实IP
            proxy_set_header        Host $host;
            proxy_set_header         X-Real-IP $remote_addr;
            proxy_set_header         X-Forwarded-For $proxy_add_x_forwarded_for;    
            
            #服务器响应限速,下面配置的是 http请求传输500k后,开始限速。
            #limit_rate_after 500k; 
            #limit_rate       50k; 
            
            #访问控制
            #deny  192.168.1.1;
            #allow 192.168.1.0/24;
            #deny  all;
        }
            
        
        #图片缓存时间设置
        location ~ .*.(gif|jpg|jpeg|png|bmp|swf)$
        {
            expires 10d;
            access_log off;
        }
        
        
        #JS和CSS缓存时间设置
        location ~ .*.(js|css)?$
        {
            expires 1h;
            access_log off;
        }
        
        #防止盗链
        location ~*^.+.(jpg|gif|png|swf|flv|wma|wmv|asf|mp3|mmf|zip|rar)$ {

            valid_referers noneblocked  localhost;

            if($invalid_referer) {
                return 404;
                break;
            }

            access_log off;

         }
         
        
        proxy_connect_timeout       1;
        proxy_read_timeout          1;
        proxy_send_timeout          1;

        #定义错误页面
        #error_page  404              /404.html;

        # redirect server error pages to the static page /50x.html
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }

        # proxy the PHP scripts to Apache listening on 127.0.0.1:80
        #
        #location ~ .php$ {
        #    proxy_pass   http://127.0.0.1;
        #}

        # pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000
        #
        #location ~ .php$ {
        #    root           html;
        #    fastcgi_pass   127.0.0.1:9000;
        #    fastcgi_index  index.php;
        #    fastcgi_param  SCRIPT_FILENAME  /scripts$fastcgi_script_name;
        #    include        fastcgi_params;
        #}

        # deny access to .htaccess files, if Apache's document root
        # concurs with nginx's one
        #
        #location ~ /.ht {
        #    deny  all;
        #}
    }


    # another virtual host using mix of IP-, name-, and port-based configuration
    #
    #server {
    #    listen       8000;
    #    listen       somename:8080;
    #    server_name  somename  alias  another.alias;

    #    location / {
    #        root   html;
    #        index  index.html index.htm;
    #    }
    #}


    # HTTPS server
    #
    #server {
    #    listen       443 ssl;
    #    server_name  localhost;

    #    ssl_certificate      cert.pem;
    #    ssl_certificate_key  cert.key;

    #    ssl_session_cache    shared:SSL:1m;
    #    ssl_session_timeout  5m;

    #    ssl_ciphers  HIGH:!aNULL:!MD5;
    #    ssl_prefer_server_ciphers  on;

    #    location / {
    #        root   html;
    #        index  index.html index.htm;
    #    }
    #}

}
原文地址:https://www.cnblogs.com/kyleinjava/p/9876030.html