负载均衡软件实现与硬件实现方案
服务器负载均衡方案

服务器负载均衡方案在当今互联网高速发展的时代,服务器负载均衡方案成为了越来越多企业和网站必备的技术手段。
服务器负载均衡是指将网络流量和请求分配到多台服务器上,以达到提高网站性能、增加可靠性和实现高可用性的目的。
下面将介绍几种常见的服务器负载均衡方案。
一、硬件负载均衡。
硬件负载均衡是通过专门的硬件设备来实现负载均衡。
这些硬件设备通常被称为负载均衡器,能够根据预先设定的规则将流量分发到多台服务器上。
硬件负载均衡器具有高性能、稳定性和可靠性,能够有效地处理大量的网络流量,是大型网站和企业常用的负载均衡方案。
二、软件负载均衡。
软件负载均衡是通过软件来实现负载均衡。
常见的软件负载均衡方案包括Nginx、HAProxy和Apache等。
这些软件能够通过配置实现负载均衡和反向代理,将流量分发到多台服务器上。
软件负载均衡具有灵活性高、成本低的特点,适用于中小型网站和企业。
三、DNS负载均衡。
DNS负载均衡是通过DNS服务器来实现负载均衡。
DNS服务器根据客户端的IP地址或者请求的URL,将流量分发到不同的服务器上。
DNS负载均衡具有简单、成本低的特点,但是由于DNS缓存和TTL(Time To Live)的存在,可能会导致流量分发不均衡。
四、内容分发网络(CDN)。
内容分发网络是一种基于地理位置的负载均衡方案。
CDN通过在全球各地部署服务器节点,将静态资源缓存到离用户最近的服务器上,从而加速用户访问速度。
CDN能够有效减轻源服务器的负载压力,提高网站的访问速度和稳定性。
综上所述,服务器负载均衡是保障网站性能和可用性的重要手段。
不同的负载均衡方案适用于不同规模和需求的网站和企业。
在选择负载均衡方案时,需要根据实际情况综合考虑性能、成本和可靠性等因素,选择最适合自己的方案。
同时,负载均衡方案的部署和配置也需要专业的技术人员来完成,以确保其正常运行和稳定性。
希望本文对您了解服务器负载均衡方案有所帮助。
负载均衡解决方案

负载均衡解决方案引言在计算机网络中,负载均衡是一种分配网络流量的技术,通过将流量分散到多个服务器上,以提高系统的可靠性、稳定性和性能。
负载均衡解决方案是指在实际应用中采用的一系列策略和技术,用于实现负载均衡功能。
本文将介绍负载均衡的基本原理和常见的解决方案。
负载均衡的基本原理负载均衡的基本原理是通过将用户请求分发到多个服务器上,使得每个服务器的负载相对均衡。
负载均衡可以在多个层面进行,包括应用层、传输层和网络层。
应用层负载均衡应用层负载均衡是在应用层上进行的负载均衡。
它通过解析用户请求的内容,如URL、报文头等,来进行请求的分发。
常见的应用层负载均衡算法有轮询、随机、最少连接等。
传输层负载均衡传输层负载均衡是在传输层上进行的负载均衡。
它通过解析传输层协议的头部信息,如TCP头部中的源IP地址、目的IP地址和端口号等,来进行请求的分发。
常见的传输层负载均衡算法有轮询、源IP哈希、最少连接等。
网络层负载均衡网络层负载均衡是在网络层上进行的负载均衡。
它通过解析网络层协议的头部信息,如IP头部中的源IP地址和目的IP地址等,来进行请求的分发。
常见的网络层负载均衡算法有轮询、一致性哈希等。
常见的负载均衡解决方案根据负载均衡的原理和实现方式,常见的负载均衡解决方案可以分为硬件负载均衡和软件负载均衡两大类。
硬件负载均衡解决方案硬件负载均衡解决方案是指使用专用的硬件设备来实现负载均衡功能。
这些设备通常具有高性能、高可靠性和可扩展性,并提供了丰富的负载均衡功能。
常见的硬件负载均衡设备包括F5 BIG-IP、Citrix ADC等。
硬件负载均衡解决方案适用于对性能和可靠性有较高要求的场景。
软件负载均衡解决方案软件负载均衡解决方案是指使用软件来实现负载均衡功能。
这些软件可以运行在通用的服务器上,通过使用负载均衡算法来实现请求的分发。
常见的软件负载均衡解决方案包括Nginx、HAProxy等。
软件负载均衡解决方案相对于硬件解决方案具有成本低、灵活性高等优势,适用于中小型应用场景。
负载均衡解决方案

负载均衡解决方案负载均衡是一种通过将网络请求分散到多个服务器上,以提高系统性能和可靠性的解决方案。
在高负载情况下,使用负载均衡可以减轻单个服务器的压力,确保系统能够正常运行。
以下是几种常见的负载均衡解决方案:1. 硬件负载均衡器:硬件负载均衡器是一种专用硬件设备,用于将网络请求分发到多个服务器上。
它通常采用四层或七层负载均衡算法,能够根据服务器的负载情况和性能来动态调整请求的分发策略。
硬件负载均衡器具有高性能和可靠性,适用于大型网站和高流量应用场景。
2. 软件负载均衡器:软件负载均衡器是在服务器上运行的软件程序,根据一定的规则将网络请求分发到多个后端服务器上。
软件负载均衡器可以基于四层或七层负载均衡算法来进行请求分发,具有灵活性和可定制性。
常见的软件负载均衡器有Nginx、HAProxy等。
3. DNS负载均衡:DNS负载均衡是通过DNS服务器将域名解析为多个IP地址来实现负载均衡。
当用户发起请求时,DNS 服务器会根据一定的策略选择一个IP地址返回给用户,然后用户向该IP地址发送请求。
DNS负载均衡简单易用,但是具有一定的延迟和不准确性。
4. 内容分发网络(CDN):CDN是一种基于地理位置的负载均衡解决方案。
它通过在全球部署各种缓存服务器来提供快速的内容传输和减轻源服务器的压力。
当用户请求内容时,CDN会根据用户的地理位置和网络状况选择最近的缓存服务器来提供内容。
负载均衡解决方案可以根据实际需求进行选择。
对于小型应用或低流量网站,可以使用软件负载均衡器或DNS负载均衡;对于大型网站或高流量应用,可以考虑使用硬件负载均衡器或CDN来提供更好的性能和可靠性。
此外,还可以根据业务需求选择合适的负载均衡算法,如轮询、加权轮询、最少连接等。
负载均衡配置方法

负载均衡配置方法在现代的计算机系统中,负载均衡是保证高性能和可靠性的重要因素之一。
通过合理的负载均衡配置,可以最大程度地利用系统资源,提高系统响应速度和可扩展性。
本文将介绍一些常见的负载均衡配置方法,帮助您更好地理解和应用负载均衡技术。
一、负载均衡概述负载均衡是一种通过在多个服务器之间分配工作负载,以达到提高系统性能和可用性的技术。
它可以确保每台服务器都能够平均分担任务,避免单个服务器过载,从而提高系统的整体性能。
二、硬件负载均衡配置方法硬件负载均衡通常通过专门的硬件设备来实现,如负载均衡器。
以下是一些常用的硬件负载均衡配置方法:1. 服务器冗余:在配置硬件负载均衡之前,建议先将系统中的服务器设置为冗余模式。
这意味着将每个功能模块配置为备份模式,以确保在故障发生时可以无缝切换到备份服务器。
2. 负载均衡器选择:根据实际需求选择适当的负载均衡器。
常见的负载均衡器有硬件负载均衡器和软件负载均衡器。
硬件负载均衡器通常具有更高的性能和可靠性,但价格较高。
软件负载均衡器则更加灵活和经济实惠。
3. 负载均衡算法选择:负载均衡器通常使用一些算法来决定如何将任务分配给服务器。
常见的算法有轮询、最小连接和最少响应时间等。
根据应用场景的特点选择合适的负载均衡算法,以确保任务能够平均分配给服务器,并提高整体性能。
4. 健康检查和故障恢复:负载均衡器通常会周期性地检查服务器的健康状态,以便及时发现故障和性能问题。
一旦发现故障,负载均衡器将自动将任务重新分配给其他正常工作的服务器,并通过故障恢复机制尽快恢复故障服务器的功能。
三、软件负载均衡配置方法除了硬件负载均衡器,还可以使用软件来实现负载均衡。
以下是一些常用的软件负载均衡配置方法:1. 反向代理:通过将负载均衡器配置为反向代理服务器,可以将客户端的请求分发给多个后端服务器。
反向代理服务器可以根据不同的策略选择请求目标服务器,并将响应返回给客户端。
2. DNS负载均衡:通过在DNS服务器中配置多个IP地址,可以将客户端的请求平均分配给这些IP地址,并最终分发到不同的服务器。
负载均衡集群方案

负载均衡集群方案摘要:负载均衡集群方案是一种通过在多台服务器之间分配负载的技术,用于提高系统的可用性和性能。
本文将介绍负载均衡集群的概念和原理,并讨论一些常用的负载均衡集群方案,包括硬件负载均衡器和软件负载均衡器。
一、引言负载均衡是指将负载(如用户请求、网络流量等)分布到多个服务器上,以实现资源的合理分配,提高系统的可用性和性能。
负载均衡集群方案是负载均衡技术在集群环境中的应用,通过多台服务器的协同工作,提供高可用性和可伸缩性的服务。
二、负载均衡集群的原理负载均衡集群的原理基于以下几个关键概念:1. 服务器健康检查:负载均衡器周期性地检查集群中的服务器是否正常工作,如检查服务器的响应时间、负载情况等,根据检查结果将请求路由到不同的服务器。
2. 负载均衡算法:负载均衡器根据负载均衡算法,将请求均匀地分发给集群中的服务器,以实现负载均衡。
常用的负载均衡算法包括轮询、加权轮询、最少连接数等。
3. 会话保持:对于需要保持会话状态的应用(如购物车、登录状态等),负载均衡器可以使用会话保持机制,将同一个用户的请求路由到相同的服务器,以保证会话的一致性。
三、硬件负载均衡器硬件负载均衡器是一种将负载均衡功能集成在硬件设备中的解决方案。
硬件负载均衡器具有高性能、高可用性和可靠性的特点,常用于大规模的企业级应用。
1. 基于网络层的负载均衡器:网络层负载均衡器通过在传输层(如TCP/IP协议栈)上进行请求分发,将请求转发到不同的服务器。
常用的网络层负载均衡器有F5 BIG-IP、Cisco ACE等。
2. 基于数据链路层的负载均衡器:数据链路层负载均衡器通过在数据链路层(如以太网帧)上进行请求转发,将请求传递到不同的服务器。
常用的数据链路层负载均衡器有Brocade ServerIron、Cisco Catalyst等。
四、软件负载均衡器软件负载均衡器是一种通过软件实现负载均衡功能的解决方案。
相比硬件负载均衡器,软件负载均衡器具有灵活性和可定制性的优势,适用于中小型应用。
负载均衡的三种方案

⼀、什么是负载均衡早期的互联⽹应⽹,由于⽹户流量⽹较⽹,业务逻辑也⽹较简单,往往⽹个单服务器就能满⽹负载需求。
随着现在互联⽹的流量越来越⽹,稍微好⽹点的系统,访问量就⽹常⽹了,并且系统功能也越来越复杂,那么单台服务器就算将性能优化得再好,也不能⽹撑这么⽹⽹户量的访问压⽹了,这个时候就需要使⽹多台机器,设计⽹性能的集群来应对。
那么,多台服务器是如何去均衡流量、如何组成⽹性能的集群的呢?此时就需要请出「负载均衡器」⽹场了。
负载均衡(Load Balancer)是指把⽹户访问的流量,通过「负载均衡器」,根据某种转发的策略,均匀的分发到后端多台服务器上,后端的服务器可以独⽹的响应和处理请求,从⽹实现分散负载的效果。
负载均衡技术提⽹了系统的服务能⽹,增强了应⽹的可⽹性。
⼀、负载均衡⼀案有⼀种⽹前市⽹上最常见的负载均衡技术⽹案主要有三种:基于DNS负载均衡、基于硬件负载均衡、基于软件负载均衡三种⽹案各有优劣,DNS负载均衡可以实现在地域上的流量均衡,硬件负载均衡主要⽹于⽹型服务器集群中的负载需求,⽹软件负载均衡⽹多是基于机器层⽹的流量均衡。
在实际场景中,这三种是可以组合在⽹起使⽹。
下⽹来详细讲讲:1.基于DNS负载均衡基于DNS来做负载均衡其实是⽹种最简单的实现⽹案,通过在DNS服务器上做⽹个简单配置即可。
其原理就是当⽹户访问域名的时候,会先向DNS服务器去解析域名对应的IP地址,这个时候我们可以让DNS服务器根据不同地理位置的⽹户返回不同的IP。
⽹如南⽹的⽹户就返回我们在⽹州业务服务器的IP,北⽹的⽹户来访问的话,我就返回北京业务服务器所在的IP。
在这个模式下,⽹户就相当于实现了按照「就近原则」将请求分流了,既减轻了单个集群的负载压⽹,也提升了⽹户的访问速度。
使⽹DNS做负载均衡的⽹案,天然的优势就是配置简单,实现成本⽹常低,⽹需额外的开发和维护⽹作。
但是也有⽹个明显的缺点是:当配置修改后,⽹效不及时。
这个是由于DNS的特性导致的,DNS⽹般会有多级缓存,所以当我们修改了DNS配置之后,由于缓存的原因,会导致IP变更不及时,从⽹影响负载均衡的效果。
服务器负载均衡解决方案

服务器负载均衡解决方案服务器负载均衡(Load Balancing)是指将请求分发到多个服务器上,以减轻单个服务器的负载,提高系统的可用性、扩展性和性能。
负载均衡的目标是使每台服务器的负载尽可能平均,并且能够在任何一个服务器不可用时,自动地将请求转发到其他可用的服务器上。
实现服务器负载均衡可以采用多种不同的解决方案,下面将介绍几种常见的解决方案。
1.硬件负载均衡方案硬件负载均衡方案是基于专用负载均衡设备(Load Balancer)实现的。
这些设备通常是高性能、高可用的硬件设备,具有负载检测、请求分发和健康监测等功能。
硬件负载均衡设备可以通过不同的算法(如轮询、加权轮询、最少连接等)将请求分发到不同的服务器上,以实现负载均衡。
这种方案适用于高负载、大流量的场景,能够提供高可用性和高性能的负载均衡服务。
2.软件负载均衡方案软件负载均衡方案是将负载均衡的功能集成到应用程序中,通过软件来实现请求的分发。
常见的软件负载均衡方案包括Nginx、HAProxy等。
这些软件可以通过配置文件或脚本来定义负载均衡的策略,将请求分发到不同的后端服务器上。
软件负载均衡方案通常比硬件负载均衡方案更灵活,能够根据实际需求进行定制化配置。
但由于软件负载均衡方案是在应用层实现的,所以性能可能相对较低。
3.DNS负载均衡方案DNS负载均衡方案是通过DNS服务器将请求分发到不同的IP地址上,实现负载均衡。
在这种方案中,DNS服务器会返回一个服务器的IP地址,用户的请求将直接发送到这个IP地址上。
不同的IP地址对应不同的服务器,从而实现负载均衡。
DNS负载均衡方案可以根据服务器的负载情况,动态地修改IP地址的返回结果,以实现动态负载均衡。
4.SDN负载均衡方案SDN(Software-Defined Networking)负载均衡方案是基于SDN技术实现的。
SDN通过将网络控制平面和数据平面进行分离,从而实现对网络的集中控制和管理。
医院IT硬件负载均衡系统建设方案

北京XX科技有限公司医院IT系统负载均衡方案简介北京XX科技有限公司IT售前技术支持部目录1.系统设计原则 (3)1.1.系统的高度灵活性和先进性 (3)1.2.系统的高度可用性 (3)1.3.经济性及投资保护 (4)2.SAN系统结构 (4)2.1.开放式SAN (4)2.2.集成的解决方案 (5)2.3.惠普SAN解决方案对客户有的价值 (5)3.医院IT系统解决方案 (6)3.1方案架构概述 (6)3.2核心业务系统架构设计 (6)3.2.1结构拓扑图 (7)3.2.2方案描述 (7)3.2.3Orecle数据库设计 (8)3.2.4SQL数据库设计 (10)3.2.5存储方案设计 (11)3.2.6存储多路径管理 (12)3.3工作计划及安排 (13)4.售后技术支持服务简介 (15)4.1XX售后服务支持概述 (15)4.2售后服务方式 (16)4.2.1 技术支持服务 (16)4.2.2服务水平 (17)4.2.3 提供原厂服务3年7x24 x4概述 (17)4.2.4 24小时服务热线支持 (17)4.2.5 互联网远程支持 (17)4.3售后服务内容 (18)4.4培训计划 (20)5.产品介绍 (21)5.1HP P6000介绍 (21)5.2HP StorageWorks 8/24 SAN 交换机 (24)1.系统设计原则本方案的设计主要依据以下原则:1.1.系统的高度灵活性和先进性充分考虑到用户数据的不断增长及不可预测性,平台配置相应具有高度扩充能力的服务器和存储设备:◆采用的所有服务器具有先进的、开放的体系结构。
◆服务器在内存容量、CPU速度和数量、I/O能力等方面具有优异扩充能力,大容量内存、大I/O吞吐能力。
◆采用具有节点扩充能力的CLUSTER企业群集结构;根据业务情况,在单节点性能扩充到一定限度时,可扩充群集中的节点数量,其优点是:1.保护用户投资2.整个系统性能的提高远大于单个节点性能的提高3.扩充节点时无须对应用软件作任何修改◆采用具有具有先进技术和高性能的存储设备。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
该文档是word2003—word2007兼容版软件、硬件负载均衡部署方案目录1、硬件负载均衡之F5部署方案 (2)1.1网络拓扑结构 (2)1.2反向代理部署方式 (3)2软件负载均衡方案 (4)2.1负载均衡软件实现方式之一- URL重定向方式 (4)2.2负载均衡软件实现方式之二- 基于DNS (5)2.3负载均衡软件实现方式之三- LVS (8)2.4负载均衡软件实现方式之四- 专业负载均衡软件 (16)总结: (16)1、硬件负载均衡之F5部署方案对于所有的对外服务的服务器,均可以在BIG-IP上配置Virtual Server实现负载均衡,同时BIG-IP可持续检查服务器的健康状态,一旦发现故障服务器,则将其从负载均衡组中摘除。
BIG-IP利用虚拟IP地址(VIP由IP地址和TCP/UDP应用的端口组成,它是一个地址)来为用户的一个或多个目标服务器(称为节点:目标服务器的IP地址和TCP/UDP应用的端口组成,它可以是internet的私网地址)提供服务。
因此,它能够为大量的基于TCP/IP的网络应用提供服务器负载均衡服务。
根据服务类型不同分别定义服务器群组,可以根据不同服务端口将流量导向到相应的服务器。
BIG-IP连续地对目标服务器进行L4到L7合理性检查,当用户通过VIP请求目标服务器服务时,BIG-IP根椐目标服务器之间性能和网络健康情况,选择性能最佳的服务器响应用户的请求。
如果能够充分利用所有的服务器资源,将所有流量均衡的分配到各个服务器,我们就可以有效地避免“不平衡”现象的发生。
利用UIE+iRules可以将TCP/UDP数据包打开,并搜索其中的特征数据,之后根据搜索到的特征数据作相应的规则处理。
因此可以根据用户访问内容的不同将流量导向到相应的服务器,例如:根据用户访问请求的URL将流量导向到相应的服务器。
1.1网络拓扑结构网络拓扑结构如图所示:网络拓扑结构1.2反向代理部署方式下图为集群服务器的硬件负载均衡详细架构图,由一台F5虚拟机分别对多台服务器进行负载分配。
①如图,假设域名被解析到F5的外网/公网虚拟IP:61.1.1.3(vs_squid),该虚拟IP下有一个服务器池(pool_squid),该服务器池下包含两台真实的Squid服务器(192.168.1.11和192.168.1.12)。
②、如果Squid缓存未命中,则会请求F5的内网虚拟IP:192.168.1.3(vs_apache),该虚拟IP下有一个默认服务器池(pool_apache_default),该服务器池下包含两台真实的Apache服务器(192.168.1.21和192.168.1.22),当该虚拟IP匹配iRules规则时,则会访问另外一个服务器池(pool_apache_irules),该服务器池下同样包含两台真实的Apache服务器(192.168.1.23和192.168.1.24)。
③、另外,所有真实服务器的默认网关指向F5的自身内网IP,即192.168.1.2。
④、所有的真实服务器通过SNAT IP地址61.1.1.4访问互联网。
2软件负载均衡方案2.1负载均衡软件实现方式之一- URL重定向方式有一种用软件实现负载均衡的方式,是基于"URL重定向"的.先看看什么是URL重定向:"简单的说,如果一个网站有正规的URL和别名URL,对别名URL进行重定向到正规URL,访问同一个网址,或者网站改换成了新的域名则把旧的域名重定向到新的域名,都叫URL重定向"(/service/host_faq.php)"很多网络协议都支持“重定向”功能,例如在HTTP协议中支持Location 指令,接收到这个指令的浏览器将自动重定向到Location指明的另一个URL上。
"(/art/200604/25388.htm)这种方式,对于简单的网站,如果网站是自己开发的,也在一定程度上可行.但是它存在着较多的问题:1、“例如一台服务器如何能保证它重定向过的服务器是比较空闲的,并且不会再次发送Location指令,Location指令和浏览器都没有这方面的支持能力,这样很容易在浏览器上形成一种死循环。
”2、在哪里放LOCATION,也是一个问题。
很有可能用户会访问系统的很多个不同URL,这个时候做起来会非常麻烦。
并且,对URL的访问,有的时候是直接过来的,可以被重定向,有的时候是带着SESSION之类的,重定向就可能会出问题。
并且,这种做法,将负载均衡这个系统级的问题放到了应用层,结果可能是麻烦多多。
3、这种方式一般只适用于HTTP方式,但是实际上有太多情况不仅仅是HTTP 方式了,特别是用户如果在应用里面插一点流媒体之类的。
4、重定向的方式,效率远低于IP隧道。
5、这种方式,有的时候会伴以对服务器状态的检测,但往往也是在应用层面实现,从而实时性大打折扣。
实际上,这种方式是一种“对付”的解决方法,并不能真正用于企业级的负载均衡应用(这里企业级是指稍微复杂一点的应用系统)可以看一下专业的负载均衡软件是如何来实现的:/pcl/pcl_sis_theory.htm 对比一下可以发现,专业的负载均衡软件要更适用于正规应用,而重定向方式则比较适用于一些简单的网站应用。
2.2负载均衡软件实现方式之二- 基于DNS负载均衡集群网络拓扑图讲到负载均衡,几乎所有地方都必须要讲一下基于DNS的方式,因为这实在是最基本、最简单的方式了。
当然,也几乎所有地方都说到这种方式的种种缺点,不过,既然很基本,就还是要说明一下。
下面这段讲得很清楚:最早的负载均衡技术是通过DNS来实现的,在DNS中为多个地址配置同一个名字,因而查询这个名字的客户机将得到其中一个地址,从而使得不同的客户访问不同的服务器,达到负载均衡的目的。
DNS负载均衡是一种简单而有效的方法,但是它不能区分服务器的差异,也不能反映服务器的当前运行状态。
当使用DNS负载均衡的时候,必须尽量保证不同的客户计算机能均匀获得不同的地址。
由于DNS数据具备刷新时间标志,一旦超过这个时间限制,其他DNS服务器就需要和这个服务器交互,以重新获得地址数据,就有可能获得不同IP地址。
因此为了使地址能随机分配,就应使刷新时间尽量短,不同地方的DNS服务器能更新对应的地址,达到随机获得地址,然而将过期时间设置得过短,将使DNS流量大增,而造成额外的网络问题。
DNS 负载均衡的另一个问题是,一旦某个服务器出现故障,即使及时修改了DNS设置,还是要等待足够的时间(刷新时间)才能发挥作用,在此期间,保存了故障服务器地址的客户计算机将不能正常访问服务器。
尽管存在多种问题,但它还是一种非常有效的做法,包括Yahoo在内的很多大型网站都使用DNS。
引自:负载均衡技术研究原文:/loadbalance/lb_tech.htm比较一下DNS方式与专业的负载均衡软件如PCL负载均衡软件,会发现DNS 的问题在于,一是往往不能根据系统与服务的状态来判断负载,二是往往不能建立较复杂的负载均衡算法,而最主要的是DNS往往有缓存,简单分配负载问题不大,如果是应用集群这个就是无法接受的。
那么,为什么象Yahoo在内的大型网站都使用DNS方式呢?因为对于门户网站来讲,应用形态单一且简单,重要的是服务器数量与分布,而如果出现短时间对于少量用户的服务中断问题并不大(比如有100台服务器,有一台不行了,即使DNS有缓存,也关系不大,用户重新刷一下,就很可能又分配到其他机器上了)。
但是,对于应用系统而言,比如两三台服务器,跑着比较复杂的应用,DNS 方式就完全不适合了,这个时候,就要用专业的负载均衡软件了。
我们可以看一个实例,这样会对专业化负载均衡软件应该支持什么样的应用有更多的理解:36000人同时应用的负载均衡实例2.3负载均衡软件实现方式之三- LVSLVS是一个开源的软件,可以实现LINUX平台下的简单负载均衡.后面所附文章,讲述了LVS实现负载均衡的方法.因为文章较长,所以在转载前,先总结一下LVS的优缺点:优点:1、开源,免费2、在网上能找到一些相关技术资源3、具有软件负载均衡的一些优点缺点:1、具有开源产品常有的缺点,最核心的就是没有可靠的支持服务,没有人对其结果负责2、功能比较简单,支持复杂应用的负载均衡能力较差,如算法较少等。
3、开启隧道方式需重编译内核4、配置复杂5、只支持LINUX,如果应用还包括WINDOWS、SOLIRIS等就不行了因此,建议在简单的LINUX应用中使用LVS,复杂的应用,或者重要的应用,还是应该使用专业的负载均衡软件,如富士通西门子公司的PCL负载均衡软件。
下面转载一下如何使用LVS实现负载均衡:搭建集群负载均衡系统(原文:/linux/artic ... p/20060707/2519.html)负载均衡集群是在应用服务器高负载的情况下,由多台节点提供可伸缩的,高负载的服务器组以保证对外提供良好的服务响应;而LVS就是实现这一功能的技术.实际上LVS是一种Linux操作系统上基于IP层的负载均衡调度技术,它在操作系统核心层上,将来自IP层的TCP/UDP请求均衡地转移到不同的服务器,从而将一组服务器构成一个高性能、高可用的虚拟服务器。
使用三台机器就可以用LVS实现最简单的集群,如图1所示。
图1 LVS实现集群系统结构简图图1显示一台名为Director的机器是前端负载均衡器,运行LVS,目前只能在Linux下运行.可以针对web、ftp、cache、mms甚至 mysql等服务做load balance;后端两台机器称之为Real Server,是需要负载均衡的服务器,可以为各类系统,Linux、Solaris、Aix、BSD、Windows都可,甚至Director本身也可以作为Real Server.本文将通过实际操作,重点介绍如何在Redhat 9上用LVS构建一个负载均衡集群,关于负载均衡集群、LVS的详细内容,可参考如下信息://developerWorks/ ... r/lvs/part1/index.shtml安装LVSRedHat在 9.0以后,就将ipvsadm这些套件去除,因此如果想使用LVS(Linux Virtual Server),就得自己重新编译核心(kernel)。
下载所需软件下载ipvs补丁包从RedHat 9开始ipvs不再被预先编译到了RedHat发行版的内核中,我们需要从/software/kernel-2.4下载新版的ipvs, 这里我们使用ipvs-1.0.9.tar.gz这个版本.下载内核linux-2.4.20.tar.gz这里需要强调的是由于所有的ipvs的补丁包都是为标准内核开发的,所以安装ipvs时不能使用RedHat光盘中的Kernel Source,而是需要去下载标准的内核。