网络服务器的负载均衡

合集下载

服务器负载均衡的原理和实现方式

服务器负载均衡的原理和实现方式

服务器负载均衡的原理和实现方式服务器负载均衡是指在网络服务器集群中,通过某种策略将客户端的请求分发到多台服务器上,以达到均衡服务器负载、提高系统性能和可靠性的目的。

本文将介绍服务器负载均衡的原理和实现方式。

一、负载均衡的原理1.1 负载均衡的作用在网络服务器集群中,随着用户数量和访问量的增加,单台服务器可能无法满足所有用户的请求,容易导致服务器负载过高、性能下降甚至宕机。

负载均衡的作用就是通过将用户请求分发到多台服务器上,使得每台服务器的负载相对均衡,提高系统的整体性能和可靠性。

1.2 负载均衡的原理负载均衡的原理主要包括以下几个方面:(1)请求分发:负载均衡设备接收到用户的请求后,根据预先设定的负载均衡算法,将请求分发到服务器集群中的某一台服务器上处理。

(2)健康检测:负载均衡设备会对服务器集群中的每台服务器进行健康检测,监测服务器的负载情况、性能状态等,以确保只有正常工作的服务器参与请求处理。

(3)负载均衡算法:常见的负载均衡算法包括轮询算法、加权轮询算法、最小连接数算法、最小响应时间算法等,不同的算法适用于不同的场景,可以根据实际需求选择合适的算法。

1.3 负载均衡的优势负载均衡技术能够提供以下几方面的优势:(1)提高系统性能:通过将请求分发到多台服务器上,有效减轻单台服务器的负载压力,提高系统的整体性能。

(2)提高系统可靠性:当某台服务器发生故障时,负载均衡设备可以自动将请求转发到其他正常工作的服务器上,保证系统的可靠性。

(3)扩展系统规模:通过增加服务器数量,可以灵活扩展系统的规模,应对不断增长的用户请求。

二、负载均衡的实现方式2.1 硬件负载均衡硬件负载均衡是通过专门的负载均衡设备(如F5、CISCO等)来实现的,这些设备具有强大的处理能力和丰富的负载均衡算法,能够有效地分发用户请求并监控服务器状态。

硬件负载均衡通常适用于大型网络环境,能够提供高性能和高可靠性的负载均衡服务。

2.2 软件负载均衡软件负载均衡是通过在普通服务器上安装负载均衡软件来实现的,常见的软件负载均衡方案包括Nginx、HAProxy、LVS等。

服务器负载均衡

服务器负载均衡

服务器负载均衡服务器负载均衡是一种用于提高网络性能和可靠性的关键技术。

它的基本原理是将网络流量分配到多个服务器上,以均衡每台服务器的负载,从而提高整个系统的响应速度和可用性。

在本文中,我们将介绍服务器负载均衡的原理、常见的负载均衡算法以及其在企业中的应用。

一、服务器负载均衡的原理服务器负载均衡的原理是通过在网络前端引入一台或多台负载均衡设备,将外部请求分发到多个服务器上,从而均衡服务器的负载。

当一个服务器出现故障或性能下降时,负载均衡设备会自动将请求转发到其他正常运行的服务器上,保证整个系统的稳定性和可用性。

为了实现负载均衡,负载均衡设备通常会采用两种主要的分发策略:基于连接的负载均衡和基于内容的负载均衡。

基于连接的负载均衡是根据请求的源IP地址或目标IP地址进行分发,从而保证同一用户的请求始终由同一台服务器处理。

基于内容的负载均衡则是根据请求的内容特征进行匹配和分发,以实现更精确的负载均衡。

此外,服务器负载均衡还可以通过动态调整服务器的权重来实现更细粒度的负载均衡。

权重值越高的服务器将处理更多的请求,即分配更大的负载。

二、常见的负载均衡算法在服务器负载均衡中,常见的负载均衡算法包括轮询、最小连接数、源地址散列等。

1. 轮询算法轮询算法是最简单的负载均衡算法之一,它将请求依次分发给每台服务器。

当有新的请求到达时,请求将依次分配给下一台服务器,直到所有服务器都处理了同样数量的请求。

然后,这个过程重新开始,从第一台服务器开始分发。

轮询算法适用于负载均衡设备和服务器性能相似的场景。

2. 最小连接数算法最小连接数算法会优先将请求转发到当前连接数最少的服务器上。

通过实时监测服务器的连接数,并将请求发送到连接数最少的服务器,可以有效地将负载均衡到不同的服务器上,从而提高系统的整体性能和可用性。

3. 源地址散列算法源地址散列算法根据请求的源IP地址,通过散列算法计算出一个哈希值,并将请求转发到对应哈希值的服务器上。

服务器负载均衡

服务器负载均衡

服务器负载均衡服务器负载均衡是现代计算机网络中一种重要的技术手段,用于分担服务器的负载,提高系统的可靠性和性能。

通过合理地分配和调度网络流量,负载均衡技术可以让服务器在面对大量访问请求时仍能保持稳定运行。

本文将介绍服务器负载均衡的基本原理、常用的负载均衡算法以及其应用场景。

一、基本原理服务器负载均衡的基本原理是通过将来自客户端的请求分散到多台服务器上,从而避免单一服务器过载、崩溃或无法处理所有请求的情况。

负载均衡器作为一个中间节点,接收来自客户端的请求并将其传递给后端的服务器。

它可以根据不同的调度算法将请求分发到不同的服务器上,使得每台服务器的负载相对均衡。

二、负载均衡算法1. 轮询算法轮询算法是最简单的负载均衡算法之一,它按照服务器列表的顺序依次将请求发送给后端的服务器,直到循环一次后再次从头开始。

这种算法适用于服务器性能相近且请求没有长时间处理的情况。

2. 权重轮询算法权重轮询算法在轮询的基础上引入了权重因素。

通过为每台服务器设置一个权重值,可以让性能更好的服务器获得更多的请求,从而实现负载均衡。

比如,一个服务器的权重设置为2,另一个服务器的权重设置为1,那么前者将接收到两倍于后者的请求数量。

3. 最小连接数算法最小连接数算法通过统计每台服务器当前的连接数,将请求发送给当前连接数最少的服务器。

这种算法适合于处理连接时间较长的请求,可以有效避免某些服务器因为处理时间长而积压大量连接的情况。

4. 最少响应时间算法最少响应时间算法会根据服务器的响应时间,选择响应时间最短的服务器来处理请求。

这种算法适用于服务器的处理能力存在明显差异的情况下,可以提高整体系统的响应速度。

三、应用场景1. 高性能网站对于高性能网站来说,用户的访问量通常很大。

如果只依赖一台服务器来处理所有的请求,不仅无法提供良好的用户体验,而且可能会导致服务器崩溃。

通过使用服务器负载均衡技术,可以将流量分散到多台服务器上,提高系统的可靠性和性能。

如何实现服务器的负载均衡和高可用

如何实现服务器的负载均衡和高可用

如何实现服务器的负载均衡和高可用一、什么是负载均衡负载均衡(Load Balance)是指将网络流量分配到多台服务器上,以达到各个服务器的负载均衡,提高网络性能和可靠性的一种技术手段。

负载均衡的主要作用在于:1. 提高系统的吞吐量和处理能力。

2. 提高系统的稳定性和可靠性。

3. 提高系统的可扩展性和可维护性。

二、负载均衡的原理负载均衡的核心思想是将整个请求流量分配到多台服务器上,以达到各个服务器的负载均衡。

常见的负载均衡算法包括轮询、加权轮询、最小连接数、IP哈希、URL哈希等。

1. 轮询算法:将请求按照顺序分配给服务器,每个服务器接受一定数量的请求,最终实现负载均衡。

2. 加权轮询算法:在轮询算法的基础上,给不同的服务器分配不同的权重值,以达到更精确的负载均衡效果。

3. 最小连接数算法:当前连接数最少的服务器会被选中处理请求。

4. IP哈希算法:利用请求的IP地址进行哈希计算,将请求分配给特定的服务器,常用于需要保持会话的应用(如网上银行)。

5. URL哈希算法:利用请求的URL地址进行哈希计算,将请求分配给特定的服务器,用于需要静态资源管理和缓存的应用(如图片、CSS、JS等)。

三、负载均衡的实现有多种方式可以实现负载均衡,如硬件负载均衡、软件负载均衡、DNS负载均衡等。

1. 硬件负载均衡:通常采用专用的硬件设备,如F5 BIG-IP、Cisco ACE等。

这类设备能够提供高性能、高可靠性和可扩展性的负载均衡服务,但价格昂贵。

2. 软件负载均衡:通常采用开源方案,如Nginx、HAProxy等。

这些软件具有灵活性和便捷性高,成本相对较低,但可能对系统性能有一定影响。

3. DNS负载均衡:利用DNS解析器返回多个IP地址,实现请求分配到多台服务器上的负载均衡服务。

优点在于利用现有DNS架构,不增加新的硬件或软件成本,但有可能对系统性能有一定影响。

四、实现高可用性除了负载均衡,高可用性也是企业级应用必须考虑的因素之一。

负载均衡 原理

负载均衡 原理

负载均衡原理
负载均衡是一种常见的网络技术,通过将网络流量分配到多个服务器上,以实现对资源的有效利用和增强系统的性能、可扩展性和可用性。

负载均衡的原理如下:
1. 请求分发:当用户发送请求时,负载均衡设备会根据特定的算法(如轮询、最少连接数、哈希等)决定将请求分配给哪个服务器处理。

2. 健康检查:负载均衡设备会定期检查每个服务器的状态和性能。

如果某个服务器出现故障或负载过高,负载均衡设备会自动将流量转移到其他可用的服务器上,以确保用户的请求可以被正常处理。

3. 会话保持:负载均衡设备可以通过不同的方法(如源IP、Cookie等)将用户的请求路由到同一个服务器上,以保持用
户会话的连续性。

这对于一些需要保存用户状态的应用程序非常重要,例如在线购物网站。

4. 扩展性和可用性:通过将流量分发到多个服务器上,负载均衡可以提高系统的可扩展性和可用性。

当用户数量增加或流量负载过大时,可以通过增加服务器数量来应对,而不会影响系统的正常运行。

总体而言,负载均衡通过有效地分配流量和监控服务器的状态,可以提高系统的性能和可靠性,同时还可以实现负载的均衡,
避免某些服务器负载过高而导致的性能下降。

这使得负载均衡成为构建高可用性和可扩展性的网络应用的重要组成部分。

服务器负载均衡与故障转移

服务器负载均衡与故障转移

服务器负载均衡与故障转移在现代互联网应用中,服务器负载均衡和故障转移是至关重要的技术手段,它们可以提高系统的稳定性、可靠性和性能。

本文将深入探讨服务器负载均衡和故障转移的概念、原理、应用场景以及常见的实现方式。

一、服务器负载均衡服务器负载均衡是指将访问请求合理地分发到多台服务器上,以达到均衡服务器负载、提高系统性能的目的。

在高并发的网络环境下,单台服务器可能无法承受所有的请求,通过负载均衡可以将流量分散到多台服务器上,避免单点故障,提高系统的可用性。

1.1 负载均衡的原理负载均衡的原理是通过一个独立的负载均衡设备或软件,根据预先设定的负载均衡算法,将请求分发到多台后端服务器上。

常见的负载均衡算法包括轮询、加权轮询、最小连接数、最小响应时间等。

这些算法可以根据实际情况选择合适的方式进行负载均衡,确保每台服务器都能得到合理的负载。

1.2 负载均衡的优势负载均衡可以提高系统的可伸缩性和可靠性,当系统负载增加时,可以动态地添加服务器来应对高并发的请求;同时,当某台服务器发生故障时,负载均衡可以自动将流量转移到其他正常的服务器上,实现故障转移,保证系统的稳定运行。

1.3 负载均衡的应用场景负载均衡广泛应用于各种互联网服务中,如网站、应用程序、数据库等。

特别是在电商、社交网络、在线视频等高并发场景下,负载均衡可以有效地提升系统的性能和可用性,保障用户的访问体验。

二、故障转移故障转移是指在系统出现故障时,通过自动或手动的方式将服务从故障节点转移到正常节点上,以保证系统的连续性和可用性。

故障转移是负载均衡的重要补充,可以应对服务器故障、网络故障等突发情况,及时恢复服务,减少系统的停机时间。

2.1 故障转移的原理故障转移的原理是通过监控系统的运行状态,当检测到某个节点发生故障时,立即将流量转移到其他正常的节点上。

故障转移可以通过心跳检测、健康检查、自动重启等方式实现,确保系统在出现故障时能够及时做出响应,保证服务的连续性。

什么是负载均衡

什么是负载均衡

什么是负载均衡?负载均衡(Load Balancing)是一种将网络流量或工作负载分配到多个服务器或计算资源上的技术。

它的目的是确保每个服务器都能在负载均衡器的协调下得到适当的负载,从而提高系统的可靠性、可扩展性和性能。

负载均衡的工作原理如下:1. 请求分发:当用户发起请求时,负载均衡器接收到请求并将其分发给一组后端服务器。

负载均衡器使用不同的算法(如轮询、加权轮询、最少连接等)来决定将请求发送到哪个服务器。

2. 健康检查:负载均衡器周期性地检查后端服务器的健康状态,以确保只有正常运行的服务器接收到请求。

如果某个服务器宕机或无法响应请求,负载均衡器会将流量重新分配给其他可用的服务器。

3. 会话保持:在某些情况下,需要将同一用户的请求路由到同一个服务器上,以保持会话的一致性。

负载均衡器可以使用不同的策略(如IP散列、Cookie散列等)来实现会话保持。

4. 扩展性:当系统的负载增加时,可以通过添加更多的服务器来扩展系统的处理能力。

负载均衡器可以自动检测到新服务器的加入,并将流量均匀地分配给这些新服务器。

5. 故障恢复:如果某个服务器发生故障或宕机,负载均衡器可以自动将流量转移到其他正常运行的服务器上,从而实现故障恢复和高可用性。

负载均衡的优点和重要性:1. 提高可靠性:负载均衡器可以将流量分配到多个服务器上,当某个服务器发生故障时,可以自动将流量转移到其他正常运行的服务器上,从而提高系统的可靠性和容错性。

2. 提高性能:通过将负载均衡器放置在用户和服务器之间,可以减少服务器的负载压力,提高系统的性能和响应速度。

负载均衡器可以根据服务器的负载情况动态地分配流量,从而实现负载均衡。

3. 实现可扩展性:负载均衡器可以根据系统的需求自动添加或删除服务器,以适应不断增长的流量和用户数量。

这样可以实现系统的水平扩展,提高系统的可扩展性和弹性。

4. 提供会话保持:负载均衡器可以根据需要实现会话保持,确保用户的请求被路由到同一个服务器上,从而保持会话的一致性和用户体验。

负载均衡 策略

负载均衡 策略

负载均衡策略一、什么是负载均衡负载均衡(Load Balancing)是一种将工作负载(Workload)分布到多个计算资源上的技术,以提高系统的性能、可靠性和可扩展性。

负载均衡可以用于各种类型的系统,包括计算机网络、服务器集群、数据库集群等。

二、负载均衡的作用负载均衡的主要作用是分担服务器的负载,提高系统的可用性和性能。

通过将请求分发到多个服务器上,负载均衡可以避免单个服务器过载,提高系统的响应速度。

此外,负载均衡还可以提供故障恢复和容错功能,当某个服务器出现故障时,可以自动将请求转发到其他正常工作的服务器上。

三、常见的负载均衡策略1. 轮询策略轮询策略是最简单的负载均衡策略之一。

它将请求依次分发给每个服务器,每个服务器接收到的请求数量大致相等。

轮询策略适用于服务器性能相似的情况下,但当服务器性能不均衡时,可能会导致某些服务器负载过高,影响系统性能。

2. 最少连接策略最少连接策略将请求分发给当前连接数最少的服务器,以实现负载均衡。

这样可以确保每个服务器的负载大致相等,提高系统的性能。

但最少连接策略可能会导致某些服务器的响应时间较长,因为连接数较少的服务器可能被分配到处理较多请求的任务。

3. IP哈希策略IP哈希策略根据客户端的IP地址将请求分发给服务器。

通过对客户端IP地址进行哈希运算,可以保证同一个客户端的请求总是被分发到同一个服务器上。

这样可以解决某些应用场景下的会话管理问题,但当服务器数量发生变化时,可能会导致部分请求需要重新分发。

4. 加权轮询策略加权轮询策略根据服务器的性能设置权重,将请求按照权重分发给服务器。

权重越高的服务器接收到的请求数量越多,可以更好地利用服务器资源。

加权轮询策略适用于服务器性能不均衡的情况,可以根据服务器的性能调整权重,以实现负载均衡。

四、负载均衡的实现方式1. 硬件负载均衡器硬件负载均衡器是一种专用的硬件设备,通过硬件加速和专用的负载均衡算法,实现请求的分发和负载均衡。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

一、网络负载平衡的优点1.网络负载平衡允许你将传入的请求传播到最多达32台的服务器上,即可以使用最多32台服务器共同分担对外的网络请求服务。

网络负载平衡技术保证即使是在负载很重的情况下它们也能作出快速响应。

2.网络负载平衡对外只须提供一个IP地址(或域名)。

3.如果网络负载平衡中的一台或几台服务器不可用时,服务不会中断。

网络负载平衡自动检测到服务器不可用时,能够迅速在剩余的服务器中重新指派客户机通讯。

此保护措施能够帮助你为关键的业务程序提供不中断的服务。

可以根据网络访问量的增多来增加网络负载平衡服务器的数量。

4.网络负载平衡可在普通的计算机上实现。

在Windows Server 2003中,网络负载平衡的应用程序包括Internet信息服务(IIS)、ISA Server 2000防火墙与代理服务器、VPN虚拟专用网、终端服务器、Windows Media Services(Windows视频点播、视频广播)等服务。

同时,网络负载平衡有助于改善你的服务器性能和可伸缩性,以满足不断增长的基于Internet客户端的需求。

网络负载平衡可以让客户端用一个逻辑Internet名称和虚拟IP地址(又称群集IP地址)访问群集,同时保留每台计算机各自的名称。

下面,我们将在两台安装Windows Server 2003的普通计算机上,介绍网络负载平衡的实现及应用。

二、网络负载平衡的实现这两台计算机中,一台计算机名称为w2003-1,IP地址为202.206.197.190,另一台名为w2003-2,IP地址为202.206.197.191.规划网络负载平衡群集使用的IP地址为202.206.197.195,规划网络负载平衡群集完整的计算机名称为.你需要在域中注册此主机名称并将地址设置为202.206.197.195.如果你没有DNS,可以在需要访问网络负载平衡的客户机(包括网络负载平衡主机)上编辑%systemroot%"system32"drivers" etc目录下的hosts文件,添加一条信息“202.206.197.195 ”,即可解决DNS域名解析的问题。

当正式应用时,客户机只需要使用或IP地址202.206.197.195来访问服务器,网络服务平衡会根据每台服务器的负载情况自动选择202.206.197.190或者202.206.197.191对外提供服务。

网络负载平衡的实现过程如下:在实现网络负载平衡的每一台计算机上,只能安装TCP/IP协议,不要安装任何其他的协议(如IPX协议或者NetBEUI协议),在网络属性中,“网络负载平衡”也不能被选择,这可以从“网络连接属性”中查看。

①先进入第一台计算机,以管理员身份登录,从“管理工具”中运行“网络负载平衡管理器”,用鼠标右键单击“网络负载平衡群集”,从出现的菜单中选择“新建群集”,进入“群集参数”界面。

在“IP地址”后面输入规划的群集参数地址202.206.197.195,在子网掩码处使用默认值,在“完整Internet名称”后面输入(也可以是其他的名称,但输入的DNS 名称必须与输入的IP地址相符)。

如果允许远程控制,请选中“允许远程控制”,并在“远程密码”和“确认密码”处输入可以进行远程控制的密码。

②点击“下一步”按钮,进入群集IP地址页面后再进入“端口规则”界面,点击“下一步”按钮,进入“连接”界面。

③在“连接”界面的“主机”栏中输入当前计算机的名称w2003-1,然后点击“连接”按钮,将在“对配置一个新的群集可用的接口”框中显示出连接的计算机的网卡及IP地址。

选择与群集IP地址同一网段的地址(用于对外提供网络应用的网卡),然后点击“下一步”按钮,进入设置“主机参数”界面,点击“完成”按钮,系统将自动开始网络负载平衡群集的配置。

几分钟后,网络负载平衡群集配置完成。

④打开第二台计算机,并以管理员的身份登录进入。

注意:在网络负载平衡中的每个节点上,管理员账号的用户名和密码最好一致。

⑤然后,在第一台计算机上,用鼠标右键单击新创建的群集,从出现的菜单中选择“添加主机到群集”。

将出现“连接”界面,在“主机”中输入第二台计算机的计算机名称,点击“连接”按钮,将会在“对配置群集可用的接口”下面显示出连接的计算机上的网络配置。

选择202.206.197.191的网卡,进入主机参数界面,点击“完成”按钮,即可返回网络负载平衡管理器。

⑥关闭网络负载平衡管理器后再进入网络负载平衡管理器。

用鼠标右键单击“网络负载平衡群集”,从出现的菜单中选择“连接到现存的”,将会弹出“连接”界面。

输入第一台计算机的名称,点击“连接”按钮,在“群集”下面将列出群集的IP地址,选择此IP地址,并点击“完成”按钮,连接群集即可完成。

以后,如果这两台服务器不能满足需求,可以按以上步骤添加第3台、第4台计算机到网络负载平衡中以满足要求。

三、用IIS服务验证网络负载平衡网络负载平衡配置好后,为了实现某项具体的服务,需要在网络负载平衡的计算机上安装相应的服务。

例如:为了实现IIS网站的负载平衡,需要在相应的网络负载平衡的计算机上安装IIS服务。

安装网络负载平衡的应用程序时,不需要特别的方法,只需要在配置好网络负载平衡的计算机上安装相应的服务即可。

但是为了让每个用户在通过网络负载平衡访问到不同的计算机时,能够访问到一致的数据,需要在网络负载平衡的每台计算机上保持数据的一致性。

举例来说:实现了两个节点的IIS的网络负载平衡,为了保证两个网站内容的一致性,除了这两个IIS服务器的配置相同外,相应的网站数据必须一致。

为了检验网络负载平衡,我们可以通过IIS来进行验证,其他的一些应用如终端服务、Windows Media服务与IIS的应用相类似。

在网络负载平衡的每一台计算机上安装IIS服务,方法如下:在“添加/删除程序”中,点击“添加Windows组件”,进入Windows组件向导,双击“应用程序服务器”,进入“应用程序服务器”。

选中、Internet信息服务及应用网络COM+访问后,即可开始安装IIS服务。

安装之后,进入第一台计算机的inetpub"wwwroot目录,新建一个文本文件,输入以下内容:This win2003-1然后将它保存为default.htm文件。

这个网页在IE中将显示如下内容:This w2003-1在第二台计算机的inetpub"wwwroot目录,新建一个文本文件,并输入下面的内容:This win2003-2这个网页在IE浏览器中将显示“This w2003-2”,随后将这个文件以default.htm名称保存。

然后,在其他计算机上的IE浏览器中键入,将会显示为“This win2003-1”或“This win2003-2”,根据网络的负载,网络负载平衡会自动转发到第一台计算机或第二台计算机。

为了验证效果,你可以在浏览的时候,拔掉第一台计算机的网线或拔掉第二台机器的网线,将会发现浏览到的将是不同内容。

当然,我们只是测试的时候,为了验证网络负载平衡的效果,两个网站的内容不一致,而在正式应用的时候,网络负载平衡群集的每个节点计算机的内容将是一致的,这样,不管使用那一个节点响应,都保证访问的内容是一致的。

现在越来越多的网站包括企业网和个人站,都不同程度的遇到了负载均衡的问题,但是目前真正能有效解决的人并不是很多所以我们还要多加学习才行,今天就来讲一下Web应用服务器集群系统Web应用服务器集群系统,是由一群同时运行同一个web应用的服务器组成的集群系统,在外界看来,就像是一个服务器一样。

为了均衡集群服务器的负载,达到优化系统性能的目的,集群服务器将众多的访问请求,分散到系统中的不同节点进行处理。

从而实现了更高的有效性和稳定性,而这也正是基于Web的企业应用所必须具备的特性。

一、计算WEB服务器负载量的两种方法web应用服务器集群系统,是由一群同时运行同一个web应用的服务器组成的集群系统,在外界看来,就像是一个服务器一样。

为了均衡集群服务器的负载,达到优化系统性能的目的,集群服务器将众多的访问请求,分散到系统中的不同节点进行处理。

从而实现了更高的有效性和稳定性,而这也正是基于Web的企业应用所必须具备的特性。

高可靠性可以看作为系统的一种冗余设定。

对于一个特定的请求,如果所申请的服务器不能进行处理的话,那么其他的服务器能不能对之进行有效的处理呢?对于一个高效的系统,如果一个Web服务器失败的话,其他的服务器可以马上取代它的位置,对所申请的请求进行处理,而且这一过程对用户来说,要尽可能的透明,使用户察觉不到!稳定性决定了应用程序能否支持不断增长的用户请求数量,它是应用程序自身的一种能力。

稳定性是影响系统性能的众多因素的一种有效的测量手段,包括机群系统所能支持的同时访问系统的最大用户数目以及处理一个请求所需要的时间。

在现有众多的均衡服务器负载的方法中,广泛研究并使用的是以下两个方法:DNS负载平衡的方法RR-DNS(Round-Robin Domain Name System)负载均衡器二、DNS轮流排程的优势及缺点域名服务器(Domain Name Server)中的数据文件将主机名字映射到其IP地址。

当你在浏览器中键入一个URL时(例如:),浏览器则将请求发送到DNS,要求其返回相应站点的IP地址,这被称为DNS查询。

当浏览器获得该站点的IP地址后,便通过该IP地址连接到所要访问的站点,将页面展现在用户面前。

域名服务器(DNS)通常包含一个单一的IP地址与该IP地址所映射的站点的名称的列表。

在我们上面所假象的例子中, 这个站点的映射IP地址为203.24.23.3。

为了利用DNS均衡服务器的负载,对于同一个站点来讲,在DNS服务器中同时拥有几个不同的IP地址。

这几个IP地址代表集群中不同的机器,并在逻辑上映射到同一个站点名。

通过我们的例子可以更好的理解这一点,将通过下面的三个IP地址发布到一个集群中的三台机器上:以下为引用的内容:203.34.23.3203.34.23.4203.34.23.5在本例中,DNS服务器中包含下面的映射表: 203.34.23.3 203.34.23.4 203.34.23.5当第一个请求到达DNS服务器时,返回的是第一台机器的IP地址203.34.23.3;当第二个请求到达时,返回的是第二台机器的IP地址203.34.23.4,以此类推。

当第四个请求到达时,第一台机器的IP地址将被再次返回,循环调用。

利用上述的DNS Round Robin技术,对于某一个站点的所有请求将被平均的分配到及群中的机器上。

因此,在这种技术中,集群中的所有的节点对于网络来说都是可见的。

相关文档
最新文档