尚硅谷nginx教程-5nginx配置示例-负载均衡

通过增加服务器的数量,然后将请求分发到各个服务器上,将原来的请求集中到单个服务器的情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们所说的负载均衡。
实现效果:浏览器地址栏输入地址:http://IP地址/edu/a.html,平均到8080和8081端口中

1.准备工作

1.准备2台tomcat服务器,一台8080,一台8081
2.在2台tomcat的webapps目录下,创建a.html文件用于测试
8080/a.html

<!DOCTYPE html>
<html>
<head>
	<meta charset="utf-8">
</head>
<body>
<h1>8080</h1>
</body>
</html>

8081/a.html

<!DOCTYPE html>
<html>
<head>
	<meta charset="utf-8">
</head>
<body>
<h1>8081</h1>
</body>
</html>

2.配置nginx


worker_processes  1;

events {
    worker_connections  1024;
}


http {
    include       mime.types;
    default_type  application/octet-stream;

    #log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
    #                  '$status $body_bytes_sent "$http_referer" '
    #                  '"$http_user_agent" "$http_x_forwarded_for"';

    #access_log  logs/access.log  main;

    sendfile        on;
    #tcp_nopush     on;

    #keepalive_timeout  0;
    keepalive_timeout  65;

    #gzip  on;

    # 负载均衡1
    upstream myserver {
        server IP地址:8080;
        server IP地址:8081;
    }
    server {
        listen       80;
        server_name  IP地址;

        #charset koi8-r;

        #access_log  logs/host.access.log  main;

        # 负载均衡2
        location / {
            root   html;
	        proxy_pass	http://myserver;
            index  index.html index.htm;
        }

        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
 
    }
    # 反向代理
    server {
        listen	9001;
        server_name	IP地址;
        
        location ~ /edu/ {
            proxy_pass	http://127.0.0.1:8080;
        }

        location ~ /vod/ {
            proxy_pass	http://127.0.0.1:8081;
        }

}	

3.验证

频繁访问 http://IP地址/edu/a.html,返回的结果既有8080,也有8081

4.负载均衡规则

随着互联网信息的爆炸性增长,负载均衡(load balane)已经不再是一个陌生的话题。顾名思义,负载均衡即是将负载推到不同的服务单元,既保证服务的可用性,又保证响应足够快,给用户很好的体验。快速增长的访问量和数据流量催生了各式各样的负载均衡产品,很多专业的负载均衡硬件提供了很好的功能,但却价格不菲。这使得负载软件大受欢迎。nginx就是其中的一个,在Linux下有nginx,LVS,Haproxy等服务,可以提高负载均衡服务,而且nginx提供了以下几种分配模式(策略)。

4.1 轮询(默认)

每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。

4.2 weight

weight代表权重,默认为1,权重越高,被分配的客户端越多。
指定轮询几率,weight和访问几率成正比,用于后端服务器性能不均的情况。

upstream server_pool{
    server    172.168.0.1:8080    weight=10;
    server    172.168.0.1:8081    weight=5;
}

4.3 ip_hash

每个请求按访问IP的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。例如

upstream server_pool{
    ip_hash;
    server    172.168.0.1:8080;
    server    172.168.0.1:8081;
}

4.4 fair方式

按后端服务器的响应时间来分配请求,响应时间短的优先分配。

upstream server_pool{
    server    192.168.5.21:8080;
    server    192.168.5.21:8081;
    fair;
}

访问网址,负载均衡分发到8080和8081。先访问8080,没有访问到,再去访问8081,看谁的响应时间短,就先给谁。

原文地址:https://www.cnblogs.com/csj2018/p/12675655.html