面向中小企业的低成本Web服务负载均衡器的设计
中小企业的网络解决方案

中小企业的网络解决方案标题:中小企业的网络解决方案引言概述:随着信息技术的快速发展,中小企业也面临着网络化的挑战。
如何选择适合自身发展的网络解决方案成为中小企业亟需解决的问题。
本文将从多个方面探讨中小企业的网络解决方案,匡助企业更好地选择适合自己的网络解决方案。
一、网络基础设施建设1.1 网络设备选择:中小企业应选择性价比高、性能稳定的网络设备,如路由器、交换机、防火墙等。
1.2 网络拓扑设计:根据企业规模和需求,设计合理的网络拓扑结构,确保网络连接稳定和高效。
1.3 网络安全设置:配置防火墙、入侵检测系统等安全设备,保障企业网络的安全性和稳定性。
二、网络服务选择2.1 云服务:中小企业可以选择云计算服务,如云存储、云主机等,降低成本,提高灵便性。
2.2 宽带选择:选择适合企业需求的宽带服务商,保障网络连接速度和稳定性。
2.3 数据备份:定期进行数据备份,避免数据丢失,确保业务连续性。
三、网络管理和维护3.1 网络监控:部署网络监控系统,实时监测网络状态,及时发现和解决问题。
3.2 定期维护:定期对网络设备进行维护和升级,确保网络设备正常运行。
3.3 培训员工:对员工进行网络安全和网络使用培训,提高员工网络安全意识和技能。
四、网络应用和软件选择4.1 业务应用软件:选择适合企业业务需求的软件,提高工作效率和管理水平。
4.2 电子商务平台:建立电子商务平台,拓展销售渠道,提高企业竞争力。
4.3 挪移办公应用:部署挪移办公应用,方便员工随时随地办公,提高工作效率。
五、网络发展规划5.1 网络升级规划:根据企业发展需求,制定网络升级规划,逐步提升网络性能和安全性。
5.2 技术创新应用:关注新技术发展趋势,及时应用新技术,提升企业竞争力。
5.3 与IT服务商合作:与专业的IT服务商合作,定期评估网络解决方案,确保网络系统的稳定性和安全性。
结语:中小企业的网络解决方案选择关乎企业的发展和竞争力。
通过合理的网络基础设施建设、网络服务选择、网络管理和维护、网络应用和软件选择以及网络发展规划,中小企业可以打造一套适合自身发展的网络解决方案,提升企业的运营效率和竞争力。
软件开发中的负载均衡设计

软件开发中的负载均衡设计负载均衡是指将系统的工作负载分配到多个计算资源上,以使每台计算机的负载相对平衡,提高系统效率和可靠性。
在软件开发中,负载均衡是一个十分重要的设计问题,非常关乎软件系统的性能和可扩展性。
本文将介绍负载均衡的基本原理,以及在软件开发中如何设计一个有效的负载均衡系统。
一、负载均衡的基本原理负载均衡的基本原理是将请求分发到多个计算资源上,分摊系统的负载。
其目的是优化系统的性能,提高系统的可扩展性。
负载均衡可以分为两种类型:静态负载均衡和动态负载均衡。
静态负载均衡是指负载均衡器按照预先设定的规则分配请求,而动态负载均衡是指负载均衡器根据实时情况来分配请求。
在实际应用中,通常采用动态负载均衡。
在动态负载均衡中,负载均衡器需要监测每个计算资源的状态和负载情况,并根据策略来分配请求。
常用的负载均衡策略有轮询、加权轮询和最少连接数等。
轮询是最简单的策略,它会依次将请求分配到每个计算资源上。
而加权轮询则会按照权重来分配,即负载更轻的计算资源获得更多的请求。
最少连接数策略则会将请求分配到当前连接数最少的计算资源上。
这些策略可以根据实际应用需要进行选择。
二、负载均衡在软件开发中的应用负载均衡在软件开发中是一个非常重要的课题。
在开发大规模的分布式系统时,负载均衡是必不可少的。
在云计算、大数据、在线游戏等领域,更是离不开负载均衡。
在软件开发中,负载均衡的应用有以下几个方面。
(一)Web应用在Web应用中,负载均衡是一项很重要的技术,它可以平衡Web服务器的负载,提高Web系统的性能和可靠性。
通常,将Web服务器集群放在同一台负载均衡器后面,用户的请求会被负载均衡器分配到每个Web服务器上,从而分摊系统的负载。
在设计Web应用负载均衡时,需要考虑如何合理地设置策略、监测各个Web服务器的状态。
(二)数据库在数据库应用中,负载均衡可以提高查询效率和数据可用性。
可以通过将数据库集群放在同一台负载均衡器后面,并采用合适的策略来分摊数据库的负载。
面向中小企业的低成本Web服务负载均衡器的设计

难以承受, 因此设计一种低成 本 的 We b服务 负载 均衡 器具有 重要 意 义。通过 分析 当前 主 流 负载均衡 技术 , 构建 了 We b 服 务 负载均衡器的设计框 架, 提 出了服务 器性 能判 定、 健 康状 态检 测 、 持 续服 务提供 等算 法的设计 思路 , 解决 了
计
算
机
科
学
Vo 1 . 4 0 No . 1 1 A
NOV 2 01 3
Co mp u t e r S c i e n c e
面 向 中小 企 业 的低 成 本 We b服 务 负 载 均 衡 器 的设 计
徐 伟 朱 帅 叶春 豪
( 绍兴 职业技 术 学院 绍 兴 3 1 2 0 0 0 )
( S M[ Es )u n 来自 e a r a b l e , s o t h e d e s i g n o f a l o w c o s t We b s e r v i c e l o a d b a l a n c e r h a s i mp o r t a n t s i g n i f i c a n c e .Th e a u t h o r
Ab s t r a c t Wi t h t h e r a p i d g r o wt h o f We b t r a f f i c , ma k i n g t h e a p p l i c a t i o n o f l o a d b a l a n c i n g e q u i p me n t mo r e a n d mo r e wi d e l y, b u t t h e c u r r e n t l o a d b a l a n c i n g e q u i p me n t i s v e r y e x p e n s i v e , l e a d i n g t o s ma l l a n d me d i u m- s i z e d e n t e r p r i s e s
中小企业网络规划方案

随着信息技术的快速发展,小型商用企业的业务将进一步的电子化,与Internet 的联系将更加密切。
他们也需要信息基础平台去支撑业务高速发展。
这样没有信息技术背景的企业也将会对网络建设有主动诉求。
任何决策的科学性和可靠性都是以信息为基础的,信息和决策是同一管理过程中的两个方面,因此行业信息化也就成为了人们所讨论并实践着的重要课题,众多行业巨擘纷纷上马各种应用方案且取得了巨大的成功,使信息化建设更具吸引力。
相对于大型应用群体而言,中小型企业的信息化建设工程通常有规模较小,结构简单的特点,综合资金投入、专业人材以及未来发展等因素,网络的实用性、安全性与拓展性(升级改造能力)是中小企业实现信息化建设的主要要求,因此,成本低廉、操作简易、便于维护并能满足业务运作需要的网络办公环境是这一领域的真正需求。
针对绝大多数中小型企业集中办公这一现实特点,我们设计的中小企业信息化常用解决方案,能够较好地发挥企业网的使用效果和水平,具有很强的代表性。
小型局域网需要什么样的网络,通常它们的建网需求也大部份还停留在能上网,共享办公设备资源,共享文件资源,能运行 OA (办公自动化)软件协同工作上;惟独少部份将业务流程移植到 INTERNET 上来运行(这得有能力开辟自己的 WEB 后台程序)。
但还有一些有敏感数据的电脑(如:财务,合同方案文档,发展战略计划),这些公司是拒绝它们连入网络,而宁愿这些电脑成为信息孤岛。
一个原因是实现安全的成本过高,企业无法承受;一个原因是对安全措施不信任。
对于网络应用单纯,结构相对简单的小型局域网络。
有些用户可能还不需要高性能的网络,但对网络有较多了解的 IT 型小企业可能就喜欢接受最新的网络技术,但都寻求成本较低。
普通应用于小型的 IT 公司,广告、装饰设计公司,咨询公司,会计师、律师事务所,小型商业流通企业等应用环境。
本文针对目前国内最常见的两种宽带接入类型——ADSL,光纤以太网来展开。
负载均衡器部署方案

负载均衡器部署方案1. 引言负载均衡器是现代分布式系统中非常重要的组件之一。
它可以将来自客户端的请求均匀分发给后端的多个服务器,从而提高系统的可靠性、可用性和性能。
本文将介绍一种常见的负载均衡器部署方案,以帮助读者理解和实践负载均衡器的应用。
2. 负载均衡器的基本原理负载均衡器主要通过以下两种方式来实现请求的分发:•基于请求的负载均衡:负载均衡器根据请求的内容、源IP地址或者其他特征,将不同的请求分发给不同的后端服务器。
这种方式适用于不同的请求需要不同的处理策略的场景,例如网站的静态资源可以由一个服务器处理,而动态内容可以由另一个服务器处理。
•基于连接的负载均衡:负载均衡器将通过网络连接来识别并分发请求。
它可以采用不同的负载均衡算法,如轮询、最少连接、源IP哈希等,从而保证后端服务器的负载均衡。
这种方式适用于连接状态需要保持一致的场景,例如数据库连接池。
3. 负载均衡器部署方案负载均衡器的部署方案主要涉及到以下几个方面:3.1 硬件负载均衡器硬件负载均衡器是一种专门用于负载均衡的物理设备。
它通常具有高性能、高稳定性和高可靠性的特点。
在部署硬件负载均衡器时,可以遵循以下步骤:1.选择合适的硬件负载均衡器:在市场上有许多不同品牌和型号的硬件负载均衡器可供选择,根据需求和预算选择合适的设备。
2.配置网络环境:硬件负载均衡器需要与前端和后端服务器建立连接,因此需要配置相应的网络环境,包括网络地址、子网掩码、网关等。
3.配置负载均衡规则:根据实际需求,配置负载均衡器的负载均衡规则,包括负载均衡算法、后端服务器的权重等。
4.配置故障检测与容错机制:负载均衡器需要能够自动检测后端服务器的健康状态,并根据需要进行故障恢复和容错处理。
3.2 软件负载均衡器软件负载均衡器是一种运行在普通服务器上的应用程序。
相比硬件负载均衡器,软件负载均衡器通常具有更低的成本和更强的灵活性。
在部署软件负载均衡器时,可以遵循以下步骤:1.选择合适的软件负载均衡器:在开源社区中有许多不同的软件负载均衡器可供选择,如Nginx、HAProxy等。
负载均衡配置方法

负载均衡配置方法在现代的计算机系统中,负载均衡是保证高性能和可靠性的重要因素之一。
通过合理的负载均衡配置,可以最大程度地利用系统资源,提高系统响应速度和可扩展性。
本文将介绍一些常见的负载均衡配置方法,帮助您更好地理解和应用负载均衡技术。
一、负载均衡概述负载均衡是一种通过在多个服务器之间分配工作负载,以达到提高系统性能和可用性的技术。
它可以确保每台服务器都能够平均分担任务,避免单个服务器过载,从而提高系统的整体性能。
二、硬件负载均衡配置方法硬件负载均衡通常通过专门的硬件设备来实现,如负载均衡器。
以下是一些常用的硬件负载均衡配置方法:1. 服务器冗余:在配置硬件负载均衡之前,建议先将系统中的服务器设置为冗余模式。
这意味着将每个功能模块配置为备份模式,以确保在故障发生时可以无缝切换到备份服务器。
2. 负载均衡器选择:根据实际需求选择适当的负载均衡器。
常见的负载均衡器有硬件负载均衡器和软件负载均衡器。
硬件负载均衡器通常具有更高的性能和可靠性,但价格较高。
软件负载均衡器则更加灵活和经济实惠。
3. 负载均衡算法选择:负载均衡器通常使用一些算法来决定如何将任务分配给服务器。
常见的算法有轮询、最小连接和最少响应时间等。
根据应用场景的特点选择合适的负载均衡算法,以确保任务能够平均分配给服务器,并提高整体性能。
4. 健康检查和故障恢复:负载均衡器通常会周期性地检查服务器的健康状态,以便及时发现故障和性能问题。
一旦发现故障,负载均衡器将自动将任务重新分配给其他正常工作的服务器,并通过故障恢复机制尽快恢复故障服务器的功能。
三、软件负载均衡配置方法除了硬件负载均衡器,还可以使用软件来实现负载均衡。
以下是一些常用的软件负载均衡配置方法:1. 反向代理:通过将负载均衡器配置为反向代理服务器,可以将客户端的请求分发给多个后端服务器。
反向代理服务器可以根据不同的策略选择请求目标服务器,并将响应返回给客户端。
2. DNS负载均衡:通过在DNS服务器中配置多个IP地址,可以将客户端的请求平均分配给这些IP地址,并最终分发到不同的服务器。
中小企业服务器配置-Web服务器

AddModule mod_log_referer.c
AddModule mod_mime.c
AddModule mod_negotiation.c
AddModule mod_status.c
AddModule mod_info.c
AddModule mod_include.c
#设置Web管理员的邮件地址
ServerName WebOA
#定义客户端从服务器读取数据时返回给客户端的主机名,其缺省值是localhost,第一次安装Linux的时候经常这里出错。
DocumentRoot "/home/weboa/jakarta-tomcat/webapps/weboa"
#设置所有Apache文档的根目录,比如说,用户对
MaxRequestsPerChild 100
LoadModule vhost_alias_module modules/mod_vhost_alias.so
LoadModule env_module modules/mod_env.so
LoadModule config_log_module modules/mod_log_config.so
LoadModule negotiation_module modules/mod_negotiation.so
LoadModule status_module modules/mod_status.so
LoadModule info_module modules/mod_info.so
LoadModule includes_module modules/mod_include.so
服务器负载均衡方案

服务器负载均衡方案第1篇服务器负载均衡方案一、背景随着互联网的迅速发展,业务量不断攀升,服务器承受的压力越来越大。
为保障业务连续性和用户体验,提高服务器资源利用率,降低单点故障风险,有必要引入服务器负载均衡技术。
本方案旨在制定一套合法合规的服务器负载均衡方案,确保业务稳定、高效运行。
二、目标1. 提高服务器资源利用率,降低硬件投资成本。
2. 确保业务连续性,提高系统可用性。
3. 提升用户体验,降低访问延迟。
4. 合法合规,确保数据安全。
三、方案设计1. 负载均衡器选型根据业务需求,选择合适的负载均衡器。
本方案推荐使用硬件负载均衡器,如F5、深信服等品牌。
硬件负载均衡器具有高性能、高可靠性、易于管理等优点,适用于大型企业及重要业务场景。
2. 负载均衡策略(1)轮询(Round Robin)将客户端请求按顺序分配到后端服务器,适用于服务器性能相近的场景。
(2)最小连接数(Least Connections)将客户端请求分配给当前连接数最少的服务器,适用于服务器性能不均的场景。
(3)源地址哈希(Source Hash)根据客户端IP地址进行哈希计算,将请求分配到固定的服务器,适用于有状态业务场景。
(4)权重(Weight)为每台服务器分配不同的权重,根据权重比例分配请求,适用于服务器性能差异较大的场景。
3. 健康检查负载均衡器定期对后端服务器进行健康检查,确保服务器正常运行。
检查方式包括:TCP连接、HTTP请求等。
当检测到服务器故障时,自动将其从负载均衡列表中剔除,待服务器恢复正常后,重新加入负载均衡列表。
4. 会话保持为保持用户会话状态,负载均衡器支持会话保持功能。
可根据业务需求选择以下方式:(1)源地址保持:根据客户端IP地址保持会话。
(2)Cookie保持:根据客户端Cookie信息保持会话。
5. 安全防护(1)负载均衡器支持SSL加密,确保数据传输安全。
(2)负载均衡器支持防火墙功能,对非法请求进行过滤,防止恶意攻击。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
第40卷 第11A期2013年11月计算机科学Computer ScienceVol.40No.11ANov 2013本文受浙江省新苗人才计划项目(2012R458001),浙江省高职高专院校特色专业建设项目(TZZ09078)资助。
徐 伟(1970-),男,硕士,讲师,主要研究方向为网络安全、交换路由技术,E-mail:xuwei@sxvtc.com;朱 帅(1991-),男,主要研究方向为服务器集群技术;叶春豪(1992-),男,主要研究方向为网络设备配置技术。
面向中小企业的低成本Web服务负载均衡器的设计徐 伟 朱 帅 叶春豪(绍兴职业技术学院 绍兴312000) 摘 要 Web访问流量急剧增长,使得负载均衡设备应用越来越广泛,而当前负载均衡设备价格非常昂贵,中小企业难以承受,因此设计一种低成本的Web服务负载均衡器具有重要意义。
通过分析当前主流负载均衡技术,构建了Web服务负载均衡器的设计框架,提出了服务器性能判定、健康状态检测、持续服务提供等算法的设计思路,解决了面向中小企业的低成本Web服务负载均衡器设计的核心问题。
关键词 Web服务,负载均衡,NAT,SNMP中图法分类号 TP393.05 文献标识码 A Design for SMEs of Low Cost Web Server Load BalancerXU Wei ZHU Shuai YE Chun-hao(Shaoxing Vocational &Technical College,Shaoxing 312000,China) Abstract With the rapid growth of Web traffic,making the application of load balancing equipment more and morewidely,but the current load balancing equipment is very expensive,leading to small and medium-sized enterprises(SMEs)unbearable,so the design of a low cost Web service load balancer has important significance.The authorthrough the analysis of the current load balancing technology,Constructed the design framework of Web server loadbalancer,designed algorithms,such as server performance evaluation,health check,continuous service etc,to solve thecore problem for SMEs to design the low cost Web server load balancer.Keywords Web server,Load balancer,NAT,SNMP 1 引言随着互联网新闻、娱乐、电子商务等产业的发展,Web服务访问量急剧增长,使云计算和虚拟化技术等技术得到了发展,因此对Web服务器的并发访问能力和处理能力提出了新要求。
在过去,一旦单服务器不能满足当前网络访问服务,往往采用更换性能更强、最昂贵的服务器来解决,不仅造成浪费,还不能根本上解决问题。
因此需要一种能够将网络访问负载分摊到多个并行服务器上执行,共同完成相同的网络服务,一旦出现访问瓶颈,只需简单地增加服务器数量,就能成倍提升处理能力和并发访问能力的负载均衡技术。
而当前负载均衡设备的价格动辄几十万元甚至上百万元,中小企业只能望洋兴叹[1]。
本文主要围绕这一问题,提出一种低成本、高性能的Web服务负载均衡器的解决方案。
2 主流负载均衡技术分析2.1 DNS负载均衡最早的负载均衡技术是通过DNS来实现的,在DNS中为多个IP地址配置同一个域名,查询这个域名的客户机将随机得到其中一个IP地址,从而实现不同的客户访问不同的服务器而得到相同的Web服务,达到负载均衡的目的[2]。
由于DNS不能了解到服务器的当前健康状态,不能为性能较好的服务器多分配请求,因此DNS负载均衡效果不太理想。
2.2 代理服务器负载均衡代理服务器负载均衡技术可以按照指定的负载均衡策略将外部访问请求转发给选定的内部服务器,针对每次转发,代理服务器都必须打开两个网络连接,一个对外,一个对内[3]。
这种技术应用在并发访问连接请求数量非常大时,这时代理服务器本身承担的负载也非常大了,代理服务器本身就会成为访问瓶颈,因此代理服务器负载均衡技术也不能从根本上解决Web访问瓶颈问题。
2.3 NAT负载均衡NAT技术可以将一个外部IP地址映射为多个内部IP地址,对每次TCP连接请求动态使用其中一个内部地址,达到负载均衡的目的[4],将NAT负载均衡技术集成在网络互联设备中,提高了负载均衡的性能。
目前NAT负载均衡技术被RADWARE、ARRAY、SINFOR等设备厂商广泛采用。
现行技术的缺点是采用统计最小连接(Least ConnectionSche-duling)或加权最小连接(Weighted connection Schedu-ling)来了解服务器的负载情况,容易出现误差;尤其是NAT负载均衡设备价格昂贵,难以推广应用。
通过比较和分析以上3类负载均衡技术,NAT负载均衡·75·技术比其它两类更先进,因此本负载均衡器的设计基于NAT技术,不但对负载均衡算法进行优化和改进,能够实现负载均衡功能,使之达到高性能,而且要降低设备制造成本,使得中小企业能够承担。
3 负载均衡器的设计思路为了降低设备制造成本并提高传输性能,我们选择利用交换机价格低、数据转发速度快的优势,在具有NAT功能的多层交换技术基础上实现负载均衡技术。
要解决的核心问题是交换机如何判定服务器的物理性能和当前健康状态,以及如何保证在会话周期内客户机由同一服务器提供持续服务等。
在这些问题解决后,就可以利用成熟的NAT技术实现负载均衡功能。
基于这种思想,我们构建了Web服务负载均衡技术的基本网络结构,如图l所示。
图1 Web服务负载均衡网络结构图2 程序流程图本负载均衡器的工作过程划分为初始化阶段和服务提供阶段两个阶段。
初始化阶段的设计思路是:当负载均衡器是加电启动时,运行性能判定算法,计算各服务器的处理访问数据的最大流量。
通过定时运行健康状态检测算法来获得服务器的即时流量,通过即时流量与最大临界流量之间的比值来判定该服务器的访问负载的真实情况,从而确定负载最轻的首选服务器。
服务提供阶段的设计思路是:负载均衡器监听客户机的Web访问请求,判断客户机是否存在NAT访问记录,如果存在,表明该客户机正处于连接会话周期内,由原服务器继续提供访问服务;如果不存在,则表明是新的Web访问请求,由负载最轻的首选服务器提供访问服务。
程序设计流程如图2所示。
4 负载均衡器的主要算法实现负载均衡器的算法核心部分包括了init_Balance、Health_srv、Dispatch_nat、Service_conti等。
主要利用SNMP(简单网络管理协议)来解决获得流量信息,利用NAT技术来完成数据转发。
简单网络管理协议SNMP GET/SET/TRAP可以用来获取、设置和反馈设备信息[5],通过从SNMP管理信息库MIB中定时读取接口组变量:ifInOctets(B/s),ifOutOctets(B/s)及IP组变量:ipForwDatagrams(packet/s),ipInRe-ceives(packet/s),它们分别表示设备接口每秒接收到和发送的字节数、接收和转发的数据包数。
由于每个数据帧在以太网中传输时都包含了帧间隙数据(由96位的帧间隙时间12字节和8字节的前同步信号组成),共计20字节,因此获得即时流量的公式是:即时流量=(发送/接受帧数)*20+接受/发送字节数。
4.1 性能判定算法性能判定算法(init_Balance)通过初始化测试,获得服务器处理数据的最大数据传输流量的临界值,以评估该服务器的处理能力。
负载均衡器在加电启动后,产生n_num个http访问请求,并在每个访问过程中读取标本数据,让负载均衡器采样统计n_num个http访问过程中服务器接入端口的最大数据传输临界流量(Status_max),便于健康状态检测算法中判断服务器的健康状况。
算法如下:init_Balance()BeginFor i=1to n_num Do//生成n_num个请求BeginAfxBeginThread();//生成工作线程Con_Thread();//调用Con_Thread()函数End;Status_max=ip_mib.ipInReceives*20+if_mib.iflnOctets//获取最大临界流量值return(Status_max);//返回最大临界流量值EndCon_Thread()//发送http请求并接收应答BeginCon=GetHttpConnection();//连接http服务器,并返回一个chttp-connection指针File=con->OpenReguest();//打开一个http连接,返回指针filefile->SendRequest();//发送http请求ReadString();//读取所请求的文件End4.2 健康状态检测算法健康状态检测算法(Health_srv)负责定期采集每个服务器的即时流量信息,通过即时流量与最大临界流量的比值,来获得服务器的健康状态率,以此作为选择首先服务器的依据,并且及时隔离工作异常的服务器。
该算法以采样时间为粒·85·度,流量采样时间可以是毫秒、秒、分、小时等,采用细粒度的调度在最大限度上避免由于用户突发性访问引起的负载不平衡。
通过探测tcpAttamptFails的值来鉴别工作异常的服务器,将之淘汰出候选服务器序列;利用获取即时流量的公式来获取服务器当前的即时流量。
通过即时流量与最大临界流量的比值,来获得该服务器的健康状态率。
计算公式为:Status_healthi=Status_nowi/Status_maxi(下标i表示服务器编号)。
通过比较各服务器的Status_healthi的值来选拔当前的首选服务器。
Status_healthi值最小的入选首选服务器。
4.3 调度算法调度算法(Dispatch_nat)负责判断客户机的Web访问请求是否已建立连接,决定采用哪种NAT技术提供服务。