阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

Nginx负载均衡配置实例

167次阅读
没有评论

共计 4452 个字符,预计需要花费 12 分钟才能阅读完成。

什么是负载均衡

负载均衡主要通过专门的硬件设备或者通过软件算法实现。通过硬件设备实现的负载均衡效果好、效率高、性能稳定,但是成本比较高。通过软件实现的负载均衡主要依赖于均衡算法的选择和程序的健壮性。均衡算法也是多种多样的,常见的有两大类:即静态负载均衡算法和动态负载均衡算法。静态算法实现比较简单,在一般网络环境下也能达到比较好的效果,主要有一般轮询算法、基于比率的加权轮询算法以及基于优先级的加权轮询算法等。动态负载均衡算法在较为复杂的网络环境中适应性更强,效果更好,主要有基于任务量的最少连接优先算法、基于性能的最快响应优先算法、预测算法及动态性能分配算法等。

网络负载均衡技术的大致原理是利用一定的分配策略将网络负载平衡地分摊到网络集群的各个操作单元上,使得单个重负载任务能够分担到多个单元上并行处理,或者使得大量并发访问或数据 流量分担到多个单元上分别处理,从而减少用户的等待响应时间。

Nginx 服务器负载均衡配置

Nginx 服务器实现了静态的基于优先级的加权轮询算法,主要使用的配置是 proxy_pass 指令和 upstream 指令,这些内容实际上很容易理解,关键点在于 Nginx 服务器的配置灵活多样,如何在配置负载均衡的同时合理地整合其他功能,形成一套可以满足实际需求的配置方案。

下面的有一些基础示例片段,当然不可能将所有的配置情况包括在内,希望能够起到抛砖引玉的效果,同时也需要大家在实际应用过程中多总结多积累。在配置中需要注意的地方将以注释的形式添加。

配置实例一:对所有请求实现一般轮询规则的负载均衡

    在以下实例片段中,backend 服务器组中所有服务器的优先级全部配置为默认的 weight=1,这样它们会按照一般轮询策略依次接收请求任务。该配置是一个最简单的实现 Nginx 服务器负载均衡的配置。所有访问 www.myweb.name 的请求都会在 backend 服务器组中实现负载均衡。实例代码如下:

 
upstream backend                    #配置后端服务器组
{
   server 192.168.1.2:80;
   server 192.168.1.3:80;
   server 192.168.1.4:80;          #默认 weight=1
}
server
{
   listen 80;
   server_name www.myweb.name;
   index index.html index.htm;
   location / {
       proxy_pass http://backend;
       prox_set_header Host $host;
   }
   …
}

配置实例二:对所有请求实现加权轮询规则的负载均衡

    与“配置实例一”相比,在该实例片段中,backend 服务器组中的服务器被赋予了不同的优先级别,weight 变量的值就是轮询策略中的“权值”。其中,192.168.1.2:80 的级别最高,优先接收和处理客户端请求;192.168.1.4:80 的级别最低,是接收和处理客户端请求最少的服务器,192.168.1.3:80 将介于以上两者之间。所有访问 www.myweb.name 的请求都会在 backend 服务器组中实现加权负载均衡。实例代码如下:

 
upstream backend                    #配置后端服务器组
{
   server 192.168.1.2:80 weight=5;
   server 192.168.1.3:80 weight=2;
   server 192.168.1.4:80;          #默认 weight=1
}
server
{
   listen 80;
   server_name www.myweb.name;
   index index.html index.htm;
   location / {
       proxy_pass http://backend;
       prox_set_header Host $host;
   }
   …
}

配置实例三:对特定资源实现负载均衡

 在该实例片段中,我们设置了两组被代理的服务器组,名为“videobackend”的一组用于对请求 video 资源的客户端请求进行负载均衡,另一组用于对请求 filed 资源的客户端请求进行负载均衡。所有对“http://www.mywebname/video/*”的请求都会在 videobackend 服务器组中获得均衡效果,所有对“http://www.mywebname/file/*”的请求都会在 filebackend 服务器组中获得均衡效果。该实例中展示的是实现一般负载均衡的配置,对于加权负载均衡的配置可以参考“配置实例二”。

    在 location /file/ {……} 块中,我们将客户端的真实信息分别填充到了请求头中的“Host”、“X-Real-IP”和“X-Forwareded-For”头域,这样后端服务器组收到的请求中就保留了客户端的真实信息,而不是 Nginx 服务器的信息。实例代码如下:

 
upstream videobackend                    #配置后端服务器组 1
{
   server 192.168.1.2:80;
   server 192.168.1.3:80;
   server 192.168.1.4:80;
}
upstream filebackend                    #配置后端服务器组 2
{
   server 192.168.1.5:80;
   server 192.168.1.6:80;
   server 192.168.1.7:80;
}
server
{
   listen 80;
   server_name www.myweb.name;
   index index.html index.htm;
   location /video/ {
       proxy_pass http://videobackend; #使用后端服务器组 1
       prox_set_header Host $host;
       …
   }
   location /file/ {
       proxy_pass http://filebackend;  #使用后端服务器组 2
                                       #保留客户端的真实信息
       prox_set_header Host $host;
       proxy_set_header X-Real-IP $remote_addr;
       proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
       …
   }
}

配置实例四:对不同域名实现负载均衡

在该实例片段中,我们设置了两个虚拟服务器和两组后端代理的服务器组,分别用来接收不同的域名请求和对这些请求进行负载均衡处理。如果客户端请求域名为“home.myweb.name”,则服务器 server1 接收并转向 homebackend 服务器组进行负载均衡处理;如果客户端请求域名为“bbs.myweb.name”,则由服务器 server2 接收 bbsbackend 服务器级进行负载均衡处理。这样就实现了对不同域名的负载均衡。

需要注意两组后端服务器组中有一台服务器 server 192.168.1.4:80 是公用的。在该服务器上需要部署两个域名下的所有资源才能保证客户端请求不会出现问题。实例代码如下:

upstream bbsbackend                    #配置后端服务器组 1
{
   server 192.168.1.2:80 weight=2;
   server 192.168.1.3:80 weight=2;
   server 192.168.1.4:80;
}
upstream homebackend                    #配置后端服务器组 2
{
   server 192.168.1.4:80;
   server 192.168.1.5:80;
   server 192.168.1.6:80;
}
                                       #开始配置 server 1
server
{
   listen 80;
   server_name home.myweb.name;
   index index.html index.htm;
   location / {
       proxy_pass http://homebackend;
       prox_set_header Host $host;
       …
   }
   …
}
                                       #开始配置 server 2
server
{
   listen 80;
   server_name bbs.myweb.name;
   index index.html index.htm;
   location / {
       proxy_pass http://bbsbackend;
       prox_set_header Host $host;
       …
   }
   …
}

配置实例五:实现带有 URL 重写的负载均衡

    首先,我们来看具体的源码,这是在实例一的基础上做的修改:

upstream backend                    #配置后端服务器组
{
   server 192.168.1.2:80;
   server 192.168.1.3:80;
   server 192.168.1.4:80;          #默认 weight=1
}
server
{
   listen 80;
   server_name www.myweb.name;
   index index.html index.htm;
   
   location /file/ {
       rewrite ^(/file/.*)/media/(.*)\.*$) $1/mp3/$2.mp3 last;
   }
   
   location / {
       proxy_pass http://backend;
       prox_set_header Host $host;
   }
   …
}

该实例片段与“配置一”相比,增加了对 URI 包含“/file/”的 URL 重写功能。例如客户端请求的 URL 为“http://www.myweb.name/file/downlaod/media/1.mp3”时,该虚拟服务器首先使用 location file/ {……} 块转发到后端的 backend 服务器组中实现负载均衡。这样,就车轻而易举地实现了带有 URL 重写功能的负载均衡。在该配置方案中,一定要掌握清楚 rewrite 指令中 last 标记和 break 标记的区别,才能达到预计的效果。

以上 5 个配置实例展示了 Nginx 服务器实现不同情况下负载均衡配置的基本方法。由于 Nginx 服务器的功能在结构上是增量式的,因此,我们可以在这些配置的基础上继续添加更多功能,比如 Web 缓存等功能,以及 Gzip 压缩技术、身份认证、权限管理等。同时在使用 upstream 指令配置服务器组时,可以充分发挥各个指令的功能,配置出满足需求、高效稳定、功能丰富的 Nginx 服务器。

正文完
星哥说事-微信公众号
post-qrcode
 
星锅
版权声明:本站原创文章,由 星锅 2022-01-21发表,共计4452字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中