阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

运维新手应该知道的负载均衡原理

96次阅读
没有评论

共计 5211 个字符,预计需要花费 14 分钟才能阅读完成。

今天小编要跟大家分享的文章是关于运维新手应该知道的 负载均衡原理 。相信很多刚刚开始接触运维工作的小伙伴们对此并不是很了解,Linux 入门 新手和正在 Linux 学习 的小伙伴快来看一看吧,希望能够对大家有所帮助!

首先理解一下所谓的“均衡”

不能狭义地理解为分配给所有实际服务器一样多的工作量,因为多台服务器的承载能力各不相同,这可能体现在硬件配置、网络带宽的差异,也可能因为某台服务器身兼多职,我们所说的“均衡”,也就是希望所有服务器都不要过载,并且能够最大程序地发挥作用。

一、http 重定向

当 http 代理 (比如浏览器) 向 web 服务器请求某个 URL 后,web 服务器可以通过 http 响应头信息中的 Location 标记来返回一个新的 URL。这意味着 HTTP 代理需要继续请求这个新的 URL,完成自动跳转。

性能缺陷:

1、吞吐率限制

主站点服务器的吞吐率平均分配到了被转移的服务器。现假设使用 RR(Round Robin)调度策略,子服务器的最大吞吐率为 1000reqs/s,那么主服务器的吞吐率要达到 3000reqs/ s 才能完全发挥三台子服务器的作用,那么如果有 100 台子服务器,那么主服务器的吞吐率可想而知得有大? 相反,如果主服务的最大吞吐率为 6000reqs/s,那么平均分配到子服务器的吞吐率为 2000reqs/s,而现子服务器的最大吞吐率为 1000reqs/s,因此就得增加子服务器的数量,增加到 6 个才能满足。

2、重定向访问深度不同

有的重定向一个静态页面,有的重定向相比复杂的动态页面,那么实际服务器的负载差异是不可预料的,而主站服务器却一无所知。因此整站使用重定向方法做负载均衡不太好。

我们需要权衡转移请求的开销和处理实际请求的开销,前者相对于后者越小,那么重定向的意义就越大,例如下载。你可以去很多镜像下载网站试下,会发现基本下载都使用了 Location 做了重定向。

二、DNS 负载均衡

DNS 负责提供域名解析服务,当访问某个站点时,实际上首先需要通过该站点域名的 DNS 服务器来获取域名指向的 IP 地址,在这一过程中,DNS 服务器完成了域名到 IP 地址的映射,同样,这样映射也可以是一对多的,这时候,DNS 服务器便充当了负载均衡调度器,它就像 http 重定向转换策略一样,将用户的请求分散到多台服务器上,但是它的实现机制完全不同。

使用 dig 命令来看下”baidu”的 DNS 设置

运维新手应该知道的负载均衡原理

可见 baidu 拥有三个 A 记录

相比 http 重定向,基于 DNS 的负载均衡完全节省了所谓的主站点,或者说 DNS 服务器已经充当了主站点的职能。但不同的是,作为调度器,DNS 服务器本身的性能几乎不用担心。因为 DNS 记录可以被用户浏览器或者互联网接入服务商的各级 DNS 服务器缓存,只有当缓存过期后才会重新向域名的 DNS 服务器请求解析。也说是 DNS 不存在 http 的吞吐率限制,理论上可以无限增加实际服务器的数量。

特性:

1、可以根据用户 IP 来进行智能解析。DNS 服务器可以在所有可用的 A 记录中寻找离用记最近的一台服务器。

2、动态 DNS:在每次 IP 地址变更时,及时更新 DNS 服务器。当然,因为缓存,一定的延迟不可避免。

不足:

1、没有用户能直接看到 DNS 解析到了哪一台实际服务器,加服务器运维人员的调试带来了不便。

2、策略的局限性。例如你无法将 HTTP 请求的上下文引入到调度策略中,而在前面介绍的基于 HTTP 重定向的负载均衡系统中,调度器工作在 HTTP 层面,它可以充分理解 HTTP 请求后根据站点的应用逻辑来设计调度策略,比如根据请求不同的 URL 来进行合理的过滤和转移。

3、如果要根据实际服务器的实时负载差异来调整调度策略,这需要 DNS 服务器在每次解析操作时分析各服务器的健康状态,对于 DNS 服务器来说,这种自定义开发存在较高的门槛,更何况大多数站点只是使用第三方 DNS 服务。

4、DNS 记录缓存,各级节点的 DNS 服务器不同程序的缓存会让你晕头转向。

5、基于以上几点,DNS 服务器并不能很好地完成工作量均衡分配,最后,是否选择基于 DNS 的负载均衡方式完全取决于你的需要。

三、反向代理负载均衡

这个肯定大家都有所接触,因为几乎所有主流的 Web 服务器都热衷于支持基于反向代理的负载均衡。它的核心工作就是转发 HTTP 请求。

相比前面的 HTTP 重定向和 DNS 解析,反向代理的调度器扮演的是用户和实际服务器中间人的角色:

1、任何对于实际服务器的 HTTP 请求都必须经过调度器

2、调度器必须等待实际服务器的 HTTP 响应,并将它反馈给用户(前两种方式不需要经过调度反馈,是实际服务器直接发送给用户)

特性:

1、调度策略丰富。例如可以为不同的实际服务器设置不同的权重,以达到能者多劳的效果。

2、对反向代理服务器的并发处理能力要求高,因为它工作在 HTTP 层面。

3、反向代理服务器进行转发操作本身是需要一定开销的,比如创建线程、与后端服务器建立 TCP 连接、接收后端服务器返回的处理结果、分析 HTTP 头部信息、用户空间和内核空间的频繁切换等,虽然这部分时间并不长,但是当后端服务器处理请求的时间非常短时,转发的开销就显得尤为突出。例如请求静态文件,更适合使用前面介绍的基于 DNS 的负载均衡方式。

4、反向代理服务器可以监控后端服务器,比如系统负载、响应时间、是否可用、TCP 连接数、流量等,从而根据这些数据调整负载均衡的策略。

5、反射代理服务器可以让用户在一次会话周期内的所有请求始终转发到一台特定的后端服务器上(粘滞会话),这样的好处一是保持 session 的本地访问,二是防止后端服务器的动态内存缓存的资源浪费。

四、IP 负载均衡(LVS-NAT)

因为反向代理服务器工作在 HTTP 层,其本身的开销就已经严重制约了可扩展性,从而也限制了它的性能极限。那能否在 HTTP 层面以下实现负载均衡呢?

NAT 服务器: 它工作在传输层,它可以修改发送来的 IP 数据包,将数据包的目标地址修改为实际服务器地址。

从 Linux2.4 内核开始,其内置的 Neftilter 模块在内核中维护着一些数据包过滤表,这些表包含了用于控制数据包过滤的规则。可喜的是,Linux 提供了 iptables 来对过滤表进行插入、修改和删除等操作。更加令人振奋的是,Linux2.6.x 内核中内置了 IPVS 模块,它的工作性质类型于 Netfilter 模块,不过它更专注于实现 IP 负载均衡。

想知道你的服务器内核是否已经安装了 IPVS 模块,可以

运维新手应该知道的负载均衡原理

有输出意味着 IPVS 已经安装了。IPVS 的管理工具是 ipvsadm,它为提供了基于命令行的配置界面,可以通过它快速实现负载均衡系统。这就是大名鼎鼎的 LVS(Linux Virtual Server,Linux 虚拟服务器)。

1、打开调度器的数据包转发选项

echo 1 > /proc/sys/net/ipv4/ip_forward

2、检查实际服务器是否已经将 NAT 服务器作为自己的默认网关,如果不是,如添加

route add default gw xx.xx.xx.xx

3、使用 ipvsadm 配置

ipvsadm -A -t 111.11.11.11:80 -s rr

添加一台虚拟服务器,- t 后面是服务器的外网 ip 和端口,-s rr 是指采用简单轮询的 RR 调度策略 (这属于静态调度策略,除此之外,LVS 还提供了系列的动态调度策略,比如最小连接(LC)、带权重的最小连接(WLC),最短期望时间延迟(SED) 等)

ipvsadm -a -t 111.11.11.11:80 -r 10.10.120.210:8000 -m

ipvsadm -a -t 111.11.11.11:80 -r 10.10.120.211:8000 -m

添加两台实际服务器(不需要有外网 ip),- r 后面是实际服务器的内网 ip 和端口,- m 表示采用 NAT 方式来转发数据包

运行 ipvsadm -L - n 可以查看实际服务器的状态。这样就大功告成了。

实验证明使用基于 NAT 的负载均衡系统。作为调度器的 NAT 服务器可以将吞吐率提升到一个新的高度,几乎是反向代理服务器的两倍以上,这大多归功于在内核中进行请求转发的较低开销。但是一旦请求的内容过大时,不论是基于反向代理还是 NAT,负载均衡的整体吞吐量都差距不大,这说明对于一睦开销较大的内容,使用简单的反向代理来搭建负载均衡系统是值考虑的。

这么强大的系统还是有它的瓶颈,那就是 NAT 服务器的网络带宽,包括内部网络和外部网络。当然如果你不差钱,可以去花钱去购买千兆交换机或万兆交换机,甚至负载均衡硬件设备,但如果你是个屌丝,咋办?

一个简单有效的办法就是将基于 NAT 的集群和前面的 DNS 混合使用,比如 5 个 100Mbps 出口宽带的集群,然后通过 DNS 来将用户请求均衡地指向这些集群,同时,你还可以利用 DNS 智能解析实现地域就近访问。这样的配置对于大多数业务是足够了,但是对于提供下载或视频等服务的大规模站点,NAT 服务器还是不够出色。

五、直接路由(LVS-DR)

NAT 是工作在网络分层模型的传输层(第四层),而直接路由是工作在数据链路层(第二层),貌似更屌些。它通过修改数据包的目标 MAC 地址(没有修改目标 IP),将数据包转发到实际服务器上,不同的是,实际服务器的响应数据包将直接发送给客户羰,而不经过调度器。

1、网络设置

这里假设一台负载均衡调度器,两台实际服务器,购买三个外网 ip,一台机一个,三台机的默认网关需要相同,最后再设置同样的 ip 别名,这里假设别名为 10.10.120.193。这样一来,将通过 10.10.120.193 这个 IP 别名来访问调度器,你可以将站点的域名指向这个 IP 别名。

2、将 ip 别名添加到回环接口 lo 上

这是为了让实际服务器不要去寻找其他拥有这个 IP 别名的服务器,在实际服务器中运行:

运维新手应该知道的负载均衡原理

另外还要防止实际服务器响应来自网络中针对 IP 别名的 ARP 广播,为此还要执行:

echo “1” > /proc/sys/net/ipv4/conf/lo/arp_ignore

echo “2” > /proc/sys/net/ipv4/conf/lo/arp_announce

echo “1” > /proc/sys/net/ipv4/conf/all/arp_ignore

echo “1” > /proc/sys/net/ipv4/conf/all/arp_announce

配置完了就可以使用 ipvsadm 配置 LVS-DR 集群了

ipvsadm -A -t 10.10.120.193:80 -s rr

ipvsadm -a -t 10.10.120.193:80 -r 10.10.120.210:8000 -g

ipvsadm -a -t 10.10.120.193:80 -r 10.10.120.211:8000 -g

- g 就意味着使用直接路由的方式转发数据包

LVS-DR 相较于 LVS-NAT 的最大优势在于 LVS-DR 不受调度器宽带的限制,例如假设三台服务器在 WAN 交换机出口宽带都限制为 10Mbps,只要对于连接调度器和两台实际服务器的 LAN 交换机没有限速,那么,使用 LVS-DR 理论上可以达到 20Mbps 的最大出口宽带,因为它的实际服务器的响应数据包可以不经过调度器而直接发往用户端啊,所以它与调度器的出口宽带没有关系,只能自身的有关系。而如果使用 LVS-NAT,集群只能最大使用 10Mbps 的宽带。所以,越是响应数据包远远超过请求数据包的服务,就越应该降低调度器转移请求的开销,也就越能提高整体的扩展能力,最终也就越依赖于 WAN 出口宽带。

总的来说,LVS-DR 适合搭建可扩展的负载均衡系统,不论是 Web 服务器还是文件服务器,以及视频服务器,它都拥有出色的性能。前提是你必须为实际器购买一系列的合法 IP 地址。

六、IP 隧道(LVS-TUN)

基于 IP 隧道的请求转发机制:将调度器收到的 IP 数据包封装在一个新的 IP 数据包中,转交给实际服务器,然后实际服务器的响应数据包可以直接到达用户端。目前 Linux 大多支持,可以用 LVS 来实现,称为 LVS-TUN,与 LVS-DR 不同的是,实际服务器可以和调度器不在同一个 WANt 网段,调度器通过 IP 隧道技术来转发请求到实际服务器,所以实际服务器也必须拥有合法的 IP 地址。

总体来说,LVS-DR 和 LVS-TUN 都适合响应和请求不对称的 Web 服务器,如何从它们中做出选择,取决于你的网络部署需要,因为 LVS-TUN 可以将实际服务器根据需要部署在不同的地域,并且根据就近访问的原则来转移请求,所以有类似这种需求的,就应该选择 LVS-TUN。

以上就是小编今天为大家分享的关于运维新手应该知道的负载均衡原理的文章,希望本篇文章能够对正在从事运维工作的小伙伴们有所帮助。想要了解更多运维相关知识记得关注 马哥教育 官网。最后祝愿小伙伴们工作顺利!

声明:文章来源于网络,侵删!

正文完
星哥说事-微信公众号
post-qrcode
 
星锅
版权声明:本站原创文章,由 星锅 2022-12-03发表,共计5211字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中