ITPub博客

首页 > 云计算 > 虚拟化 > 服务器负载均衡

服务器负载均衡

虚拟化 作者:青春呐喊9 时间:2020-07-06 17:03:27 0 删除 编辑

一、负载均衡的含义和功能


负载均衡建立在现有网络结构之上,提供一种廉价、有效的扩展服务器带宽和增加吞吐量的方法。它有两方面的含义:首先,大量的并发访问或数据流量分组到多台节点设备上分别处理,减少用户等待响应的时间。其次,单个重负载的运算分担到多台节点设备上作并处理,每个节点设备处理结束后,将结果汇总,返回给用户,系统处理能力得到大幅度提高。


负载均衡可加强服务器网络数据处理能力,提高网络的灵活性和可用性。它主要完成以下任务:解决网络拥塞问题,服务就近提供,实现地理位置无关性;为用户提供更好的访问质量;提高服务器响应速度;提高服务器和其他资源的利用效率;避免了网络关键部位出现单点故障。


服务器负载均衡一般用于提高服务器的整体处理能力,并提高可靠性、可用性和可维护性,最终目的是为了加快服务器的响应速度,从而提高用户的体验度。在负载均衡的思路下得每台服务器都具备同等的地位,都可以单独对外提供服务而无需其他服务器的辅助。然后通过某种负载分担技术,将从外部发送来的请求均匀分配到堆成结构中的某些服务器上,而接收到请求的服务器都独立回应客户机请求。



二、服务器负载均衡的分类


服务器负载均衡从结构上分为本地负载均衡和全局负载均衡,前者指对本地的服务器群作负载均衡,后者是指贵分别放置在不同的地理位置、有不同的网络及服务器器群之间作负载均衡。


本地负载均衡能有效地解决数据流量过大、网络负荷过重的问题,并且不需花费昂贵开支购置性能卓越的服务器,充分利用现有设备,避免服务器单点故障造成数据流量的损失。它具有灵活多样的均衡策略把数据流量合理地分配给服务器群内的服务器共享负担。即使是再给现有服务器扩充升级,也只是简单的增加一个新的美国服务器到服务群中,而不需改变现有网络结构、停止现有的服务。


全局负载均衡主要用于在一个多区域拥有自己服务器的站点,为了使全局只以一个ip地址或域名就能够访问到离自己最近的服务器,从而获得最快的访问速度。它也可用于子公司分散站点分布广的大公司通过Internet来达到资源统一合理分配的目的。


全局负载均衡有以下特点:


1、解决网络拥塞问题,服务器就近提供,实现地理位置无关性;


2、对用户提供更好的访问质量;


3、提高服务器响应速度;


4、提高服务器及其他资源的利用效率;


5、避免了数据中心单点故障。


另外,在负载均衡实现方式上,还有软。硬件之分,软件负载均衡解决方案是指在一台或对台服务器相应的操作系统上,安装一个或多个附加软件来实现负载均衡,如DNS负载均衡等。它的优点是基于特定环境、配置简单、试用更灵活、成本低廉,可以满足一般的负载均衡需求。


硬件负载均衡解决方案是直接在服务器和外部网络间安装负载均衡设备,这种设备我们通常称之为负载均衡器。由于专门的设备完成专门的任务,独立于操作系统,整体性能得到很大提高,加上多样化的负载均衡策略,只能化的流量管理,可达到最佳的负载均衡需求。通常,硬件负载均衡在功能、性能上由于软件方式、不过成本昂贵。


三、负载均衡策略


要部署负载均衡,首先要选择适当的均衡策略,也就是依据什么来达到负载均衡的目的,或者说是依据什么来把负载分配给不同的服务器。


选择合适的负载均衡策略,使多个设备能很好地共同完成任务,消除或避免现有网络负责分配不均、数据流量拥挤反应时间长的瓶颈。在各负载均衡方式中,针对不阔的应用需求。负载均衡策略的优劣及其实现的难易度有两个关键因素:其一,负载均衡算法;其二,对网络系统状况的检测方式和能力。一般来说,常见的负载均衡策略有如下几种:


1、轮循均衡机制


轮循均衡机制就是把每一次来自网络的请求轮流分配给集群中的服务器。从I至N,然后重新开始。此种均衡算法适合于服务器集群中的所有服务器都有相同的软硬件配置,并且平均服务请求时间相对均衡的情况。


2、权重轮循均衡机制


权重轮循均衡机制是根据服务器的不同处理能力,给每个服务器分配不同权值,使其能够接受相应权值数的服务请求。如:服务器A的权值被设计成1,B的权值是3,C的权值是6,则服务器A、B、C将分别受到10%、30%、60%的服务请求。此种均衡算法能够确保高性能的服务器得到更多的使用率,避免低性能的服务器负载过重。


3、随机均衡机制


随机均衡机制是把来自网络的请求随机分配给内部中的多个服务器,这显然不是个好的均衡策略,因为它可能造成服务器集群中有些服务器负载过大,而有些又“无事可干”。


4、权重随机均衡机制


权重随机均衡机制类似于权重轮循算法,不过咋处理请求分担时,是个随机选择的过程。它结合了权重轮循均衡机制和随机均衡机制双重优点,同时避免了两者的缺点。


5、响应速度均衡机制


响应速度均衡机制是先由负载均衡设备对内部各服务器发出一个探测请求,然后根据内部中各服务器对擦侧请求的最快响应时间来决定哪台服务器来响应客户端的服务请求。此种均衡算法能较好的反映服务器的当前运行状态,但这最快的响应时间仅仅指的是负责均衡设备与服务器间的最快响应时间,而不是客户端与服务器间的最快响应时间,并且还存在一定的延时。


6、最少链接均衡机制


客户端的每一次请求服务在父亲停留的时间可能会有较大的差异。随着工作时间加长,如果采用简单的轮循或随机均衡算法,每一台服务器上的链接进程可能会产生极大的不同,并没有达到真正的负载均衡。最少链接数均衡算法是对集群中服务器都有一个数据计量器,记录当前该服务器正在处理的进程数量。当有新的服务连接请求时,将把当前请求分配给链接数最少的服务器,与轮循机制相比,可使均衡更加符合实际情况,负载更加均衡。此种均衡算法适合长时间处理的请求服务,如ftp。


7、处理能力均衡机制


处理能力均衡机制是在系统安装时,要求用户先给出每一台服务器的配置情况,主要是影响服务器处理能力的CPU型号、CPU数量和内存数量,然后系统将其换算成处理能力单位,clb根据每一台服务器的能力,均衡的将任务分配给服务器。由于考虑到了内部服务器的处理能力及当前网络运行状况,所以此种均衡算法相对来说更加精确,尤其适合运用到第7层负载均衡的情况下。


8、dns响应均衡机制


在Internet上,无论是HTTP、ftp或是其他的服务请求,客户端一般都是同域名解析来找到服务器确切的ip地址。听过DNS响应均衡机制,分处在不同地理位置的负载均衡设备就会受到同一个客户端的云解析请求,并在第一时间内把此域名接卸成各自相对应服务器的ip地址(与负载均衡设备在间一位地理位置的服务器的ip地址)并返回给客户端,则客户端将以最先受到的域名解析ip地址来继续请求服务,而忽略其他的ip地址响应。这种均衡策略适合应用在全局负载均衡的情况下,对本地负载均衡是没有意义的。


godadly海外云服务器

来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/69953442/viewspace-2702796/,如需转载,请注明出处,否则将追究法律责任。

请登录后发表评论 登录
全部评论

注册时间:2020-03-02

  • 博文量
    37
  • 访问量
    18895