环境准备:

主机名 外网IP 内网IP 环境
lb01 172.16.1.5 10.0.0.5 nginx
web01 172.16.1.7 10.0.0.7 nginx
web02 172.16.1.8 10.0.0.8 nginx

web01部署nginx:

#关闭防火墙
systemctl stop firewalld
#下载nginx
yum install -y nginx
#编写配置文件
[root@web01 conf.d]# vim node.conf
server {
        listen 80;
        server_name jiujiu.com;
        location / {
                root /node;
                index index.html;
        }
}
#创建同名目录
mkdir /node
#追写内容
echo "hello,world" >/node/index.html
#重启nginx
systemctl restart nginx

web02部署同web01,只是修改追写内容为如下:

echo "hello,jiujiu" >/node/index.html

lb01部署:

#关闭防火墙
systemctl stop firewalld
#下载nginx
yum install -y nginx
#编写配置文件
[root@lb01 conf.d]# vim node_proxy.conf
upstream jiujiu {
        server 172.16.1.7:80;
        server 172.16.1.8:80;
}
server {
        listen 80;
        server_name jiujiu.com;

        location / {
                proxy_pass http://jiujiu;
                include proxy_params;
        }
}
#准备Nginx负载均衡调度使用的proxy_params
[root@lb01 conf.d]# vim /etc/nginx/proxy_params
proxy_set_header Host $http_host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;

proxy_connect_timeout 30;
proxy_send_timeout 60;
proxy_read_timeout 60;

proxy_buffering on;
proxy_buffer_size 32k;
proxy_buffers 4 128k;
#重启nginx
systemctl restart nginx
#本地域名解析
10.0.0.5 jiujiu.com
#浏览器访问,一直重复刷新出现如下两个页面表示成功

image-20230504162229727

image-20230504162232610

负载均衡常见典型故障

如果后台服务连接超时,Nginx是本身是有机制的,如果出现一个节点down掉的时候,Nginx会更据你具体负载均衡的设置,将请求转移到其他的节点上,但是,如果后台服务连接没有down掉,但是返回错误异常码了如:504、502、500,这个时候你需要加一个负载均衡的设置,如下:proxy_next_upstream http_500 | http_502 | http_503 | http_504 |http_404;意思是,当其中一台返回错误码404,500...等错误时,可以分配到下一台服务器程序继续处理,提高平台访问成功率。

upstream jiujiu {
        server 172.16.1.7:80;
        server 172.16.1.8:80;
}
server {
    listen 80;
    server_name jiujiu.com;

    location / {
        proxy_pass http://jiujiu;
        proxy_next_upstream error timeout http_500 http_502 http_503 http_504;
    }
}

Nginx负载均衡调度算法

1、轮询(默认)每个请求按时间顺序逐一分配到不同的后端服务,如果后端某台服务器死机,自动剔除故障系统,使用户访问不受影响。
2、weight(轮询权值)weight的值越大分配到的访问概率越高,主要用于后端每台服务器性能不均衡的情况下。或者仅仅为在主从的情况下设置不同的权值,达到合理有效的地利用主机资源。
3、ip_hash源地址哈希法源地址哈希的思想是根据获取客户端的IP地址,通过哈希函数计算得到的一个数值,用该数值对服务器列表的大小进行取模运算,得到的结果便是客服端要访问服务器的序号。采用源地址哈希法进行负载均衡,同一IP地址的客户端,当后端服务器列表不变时,它每次都会映射到同一台后端服务器进行访问。
4、fair比 weight、ip_hash更加智能的负载均衡算法,fair算法可以根据页面大小和加载时间长短智能地进行负载均衡,也就是根据后端服务器的响应时间 来分配请求,响应时间短的优先分配。Nginx本身不支持fair,如果需要这种调度算法,则必须安装upstream_fair模块。
5、url_hash按访问的URL的哈希结果来分配请求,使每个URL定向到一台后端服务器,可以进一步提高后端缓存服务器的效率。Nginx本身不支持url_hash,如果需要这种调度算法,则必须安装Nginx的hash软件包。
  • 实践

1丶轮询

upstream test_load_balance {
        # 默认是按轮询方式进行分配访问哪台服务器
        server 10.0.0.201:80;
        server 10.0.0.202:80;
}

2丶weight 加权轮询

upstream test_load_balance {
        # 按 weithe 方式分配    
        # 201这台服务器访问5次,202访问1次
        server 10.0.0.201:80 weight=5;
        server 10.0.0.202:80 weight=1;
}

3丶ip_hash

不能和 weitht 加权轮询一起使用。

​ ip_hash 能解决会话登录的问题,但会造成负载的不均衡,导致某一台主机流量过大,其他主机没什么流量

upstream test_load_balance {
        # ip_hash 方式访问 
        ip_hash;
        server 10.0.0.201:80;
        server 10.0.0.202:80;
}

4丶url_hash

upstream test_load_balance {
        # url_hash 方式
        server 10.0.0.201:80;
        server 10.0.0.202:80;
        hash $request_uri;
}

6、least_conn 最少链接数

upstream test_load_balance {
        # least_conn 最少链接数方式
        least_conn;
        server 10.0.0.201:80;
        server 10.0.0.202:80;
}

、Nginx负载均衡调度状态

在Nginx upstream模块中,可以设定每台后端服务器在负载均衡调度中的状态,常用的状态有:

1、down,表示当前的server暂时不参与负载均衡
2、backup,预留的备份机器。当其他所有的非backup机器出现故障或者忙的时候,才会请求backup机器,因此这台机器的访问压力最低
3、max_fails,允许请求失败的次数,默认为1,当超过最大次数时,返回proxy_next_upstream模块定义的错误。
4、fail_timeout,请求失败超时时间,在经历了max_fails次失败后,暂停服务的时间。max_fails和fail_timeout可以一起使用。
如果Nginx没有仅仅只能代理一台服务器的话,那它也不可能像今天这么火,Nginx可以配置代理多台服务器,当一台服务器宕机之后,仍能保持系统可用。具体配置过程如下:
----------------------------------------------------------------------------------------------------
1. 在http节点下,添加upstream节点。
    upstream linuxidc {
    server 10.0.6.108:7080; 
    server 10.0.0.85:8980; 
    }
2. 将server节点下的location节点中的proxy_pass配置为:http:// + upstream名称,即“http://linuxidc”.
    location / { 
    root html; index index.html index.htm; 
    proxy_pass http://linuxidc;
    }
3. 现在负载均衡初步完成了。upstream按照轮询(默认)方式进行负载,每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。虽然这种方式简便、成本低廉。但缺点是:可靠性低和负载分配不均衡。适用于图片服务器集群和纯静态页面服务器集群。
除此之外,upstream还有其它的分配策略,分别如下:
    weight(权重)
    指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况。如下所示,10.0.0.88的访问比率要比10.0.0.77的访问比率高一倍。
    upstream linuxidc { 
    server 10.0.0.77 weight=5; 
    server 10.0.0.88 weight=10; 
    }
# ip_hash(访问ip)
每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。
    upstream favresin {
    ip_hash; 
    server 10.0.0.10:8080; 
    server 10.0.0.11:8080; 
    }
# fair(第三方)
按后端服务器的响应时间来分配请求,响应时间短的优先分配。与weight分配策略类似。
    upstream favresin {
    server 10.0.0.10:8080;
    server 10.0.0.11:8080; fair;
    }
# url_hash(第三方)
按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效。
注意:在upstream中加入hash语句,server语句中不能写入weight等其他的参数,hash_method是使用的hash算法。
    upstream resinserver {
    server 10.0.0.10:7777;
    server 10.0.0.11:8888;
    hash $request_uri;
    hash_method crc32;
    }
upstream还可以为每个设备设置状态值,这些状态值的含义分别如下:
    down 表示单前的server暂时不参与负载.
    weight 默认为1.weight越大,负载的权重就越大。
    max_fails :允许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream 模块定义的错误.
    fail_timeout : max_fails次失败后,暂停的时间。
    backup: 其它所有的非backup机器down或者忙的时候,请求backup机器。所以这台机器压力会最轻。
    upstream bakend { #定义负载均衡设备的Ip及设备状态
        ip_hash;
        server 10.0.0.11:9090 down;
        server 10.0.0.11:8080 weight=2;
        server 10.0.0.11:6060;
        server 10.0.0.11:7070 backup;
        }
0