SANGFOR_AD应用服务器负载方案

SANGFOR_AD应用服务器负载方案
SANGFOR_AD应用服务器负载方案

深信服科技

AD网站应用负载方案

深信服科技有限公司

20XX年XX月XX日

目录

第1章概述 (1)

第2章需求分析 (1)

第3章解决方案 (2)

3.1网络拓扑 (2)

3.2方案描述 (3)

3.2.1方案设计 (3)

3.2.2方案实现 (3)

3.3稳定性保障机制 (4)

3.3.1系统健康状况监控 (4)

3.3.2应用系统冗余机制 (4)

3.3.3服务器平滑退出 (5)

3.3.4服务器平滑进入 (5)

3.4多重负载均衡机制 (5)

3.4.1应用类型负载 (5)

3.4.2基于URL负载 (5)

3.4.3七层内容负载 (6)

3.5服务器性能优化 (6)

3.6单边加速技术 (6)

3.7商业智能分析 (6)

第4章相关技术介绍 (7)

4.1负载均衡算法 (7)

4.2健康检查机制 (7)

4.3会话保持 (8)

4.4单边加速技术 (9)

4.5商业智能分析 (10)

4.6性能优化技术 (11)

4.6.1TCP连接复用 (11)

4.6.2内存缓存 (11)

4.6.3HTTP压缩 (12)

4.6.4SSL加速 (12)

4.6.5智能路由技术 (13)

4.6.6智能告警技术 (13)

第5章客户案例 (13)

5.1.1最高法选择深信服AD打造稳定的对外发布平台 (13)

5.1.2广西质监部署深信服AD应用交付 (15)

5.2更多成功客户 (17)

第6章SANGFOR专业服务 (17)

第1章概述

随着组织机构的不断发展,为了节省业务运营成本和提升工作效率,组织对信息化系统的依赖程度越来越高。为了避免业务中断所带来极大损失,组织该如何保障业务系统的系统可用性和稳定性?

由于业务系统的人数日益增多,单一的网络服务设备的性能已经不能满足众多用户访问的需要,由此需要引入服务器的负载平衡,实现客户端可访问多台同时工作的服务器,动态分配每一个应用请求到后台的服务器,并即时按需动态检查各个服务器的状态,根据预设的规则将请求分配给最有效率的服务器。

服务器负载均衡技术在现有网络结构之上能够提供一种廉价、有效、透明的方法来扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性。它主要能够带来两方面的价值:

1、能够建立有效的负载均衡机制

传统的负载机制是建立在较简单负载均衡机制和较简单的健康检查机制上的,不能根据服务器提供服务的具体情况向其转发有效的访问流量。而通过构建新的负载均衡系统,可以采用多种负载均衡机制,将大量的并发访问或数据流量分担到多台设备上分别处理,进而减少用户等待响应的时间,提升系统处理能力。

2、能够建立有效的健康检查机制

负载均衡系统可以对服务器的运行状况做出准确判断,确保提供服务的正确。全面的健康检查机制不仅可以有效的监控到服务进程的有效性,即对应用端口提供服务的能力进行健康检查,而且对于应用程序运行错误也同样可以提供有效的检查机制,从而避免了客户端可以访问到服务器,但得不到响应的情况的出现。

第2章需求分析

XX单位作为…(关于客户应用的介绍)

随着访问用户数量的增加,给XX单位的服务器带来越来越大的压力,如有有效的保证客户访问的速度和稳定性是目前XX单位网络改造的重要目标。

XX单位希望通过服务器负载均衡机制,保证用户访问流量能在各服务器上均衡分配,

提高服务器资源的利用率。

1、通过负载均衡设备将用户访问请求分配到多台之上,提升应用系统的处理能力。

2、当某台服务器发生故障时能被及时检测到,并且故障服务器将会被自动隔离,直到其恢复正常后自动加入服务器群,实现透明的容错,保证服务器整体性能得到大幅提升

3、由于是对外发布的应用,存在部门用户的网络质量差、跨运营商访问的情况,造成访问速度变慢,希望通过一种对用户端透明方式(不需要在用户端安装任何的插件或者客户端)来提升用户的访问体验。

4、希望能够通过相应优化机制来节省服务器的性能消耗,减少硬件投资成本,提升服务器相应能力。

第3章解决方案

3.1 网络拓扑

通过和XX单位的工程师沟通,按照其单位网络架构和需求情况,我们推荐使用深信服AD服务器负载均衡解决方案。本方案设计采用SANGFOR AD应用交付设备来实现网络中多台服务器的智能负载;具体部署情况如下:

3.2 方案描述

3.2.1方案设计

本方案设计充分考虑网络的稳定性以及后续的扩展性,采用深信服M5X00-AD设备实现服务器负载均衡。深信服AD设备包含了链路负载均衡、全局负载均衡和服务器负载均衡三大功能,对后续网络和应用系统的扩建、稳定性保障以及优化建设都有很好的扩展性。

1、两台SANGFOR AD以单臂方式接入网络,在实现流量的负载均衡的同时,保证整个系统的稳定和高可用性,而且没有改变原有的网络结构。

2、当用户请求到SANGFOR AD设备的时候,根据预先设定好负载策略能够合理的将每个连接快速的分配到相应的服务器。

3、通过对服务器健康状况的实时监控,能够实时的发现故障服务器,及时将用户的访问请求切换到其他正常服务器之上。

4、配合深信服独特的单边加速技术,能够是现在用户端不安装任何插件和客户端的情况下提升用户的访问速度。

5、通过深信服AD设备具备的缓存、压缩、ssl卸载、连接复用等功能进一步降低服务器性能消耗。

3.2.2方案实现

深信服AD将所有真实服务器配置成虚拟服务来实现负载均衡,对外直接发布一个虚拟服务IP。同时深信服AD可持续检查服务器的健康状态,一旦发现故障服务器,则将其从负载均衡组中移除。

方案具体实现方式(修改源IP方式)如下:

1、客户通过访问虚拟IP,发出服务请求到深信服AD设备。

2、深信服AD接收到请求,通过预先设定好的负载均衡算法,将数据包中目的IP地址改为选中的后台服务器IP地址,然后将数据包发出到后台选定的服务器。

3、后台服务器收到后,将应答包按照其路由发回深信服AD。

4、深信服AD设备收到应答包后将其中的源地址改回成虚拟IP地址,发回客户端,由此就完成了一个标准的服务器负载平衡的流程。

3.3 稳定性保障机制

3.3.1系统健康状况监控

深信服AD可以监视服务器在IP、TCP、UDP、应用和内容等所有协议层上的工作状态。一旦某台服务器出现故障,用户将被透明地引导到正常工作的服务器上。通过可靠的健康检查机制可以保证用户始终能够获得最佳的服务。(参见4.1)

3.3.2应用系统冗余机制

深信服AD设备不仅能够实现服务器间冗余机制,还能够实现基于设备自身的冗余机制以及多站点之间的冗余机制,形成应用系统稳定性保障上的三个层次冗余。无论上述哪种应用承载体出现故障,通过深信服AD的冗余机制切换保障应用系统的可用性。

设备自身冗余:深信服AD设备之间支持以主备的冗余方式接入网络,处于备份状态的设备采用“心跳线”监测运行的主设备的状态,当检测出主设备出现故障时,两台设备就会实现毫秒级切换,备份设备会切换为运行主机,为用户提供服务,保证了系统的高可用性。

多站点设备冗余:深信服AD通过全局负载均衡功能可以在不同站点上安装许多深信服AD设备,从而实现多个站点之间的冗余。即便是某站点发生故障造成该站点内的服务器和负载设备都不可用,备用站点将通冗余机制自动提供服务,保障用户访问的持续性。

3.3.3服务器平滑退出

当需要进行系统维护或者服务器升级时,通过服务器平滑推出机制,深信服AD能够保证服务器退出时不会造成用户的访问中断。当管理人员选定某台服务器要从服务器组内退出服务后,深信服AD将不会把新的用户分配到该服务器。当该服务器处理完当前用户之后,就可以开始进行对服务器的相应管理和维护了。

3.3.4服务器平滑进入

将新的或维护过后的服务器添加到服务器组时,通过服务器平滑进入机制,深信服AD 能够避免新服务器因突然出现的流量冲击导致系统故障情况的出现。在将新服务器加入到服务器组时,深信服AD将逐渐地增加分配到该服务器的流量,直至达到其完全的处理能力。从而不仅保证用户在服务器退出服务时,同时还保证服务器在启动期间以及应用程序开始时,均能获得不间断服务。

3.4 多重负载均衡机制

深信服AD支持轮询、加权轮询、最快响应时间、动态反馈、加权最小连接、哈希、优先级等算法,通过这些算法可以实现用户访问请求在多台服务器之间的动态分配。

3.4.1应用类型负载

深信服AD支持基于IP 地址、应用类型和内容等因素实现流量负载。通过这种方式管理员就可以为不同类型的应用类型分配不同的服务器资源。应用类型调度支持基于不同协议上的多种应用,包括TCP、UDP、IP、DNS、e-mail、FTP、HTTP 等等。

3.4.2基于URL负载

深信服AD产品支持基于URL的负载均衡,根据URL信息实现用户访问请求负载,可以将用户的访问请求定向到某台服务器,或实现在多个服务器之间进行负载均衡,从而提供优化服务器资源利用率。如通过一个公网IP地址来实现两个host域名的发布,就是典型的AD设备通过识别URL将用户访问分配对应的主机发布服务器之上。

根据URL 文本中包含的信息负载技术,不仅可以保持客户持续性,而且在客户网络应用优化方面有更多个性化选择。

3.4.3七层内容负载

基于七层内容的调度使管理员可以根据用户请求的内容来分配服务器资源,例如基于HTTP包头内容的负载技术让管理员可以根据用户请求的内容来分配服务器资源。例如,大型的应用系统中,静态脚本可以位于一个单独的服务器组,当发生对该静态脚本的请求时,会话就被重定向到其中某个服务器,这样就保证用户请求分配的多元化和个性化,为管理人员提供更多分配策略和机制。

深信服服务器负载均衡支持基于URI、HOST、COOKIE、USER_AGENT等信息的请求负载。

3.5 服务器性能优化

深信服AD设备支持TCP连接复用、内存缓存、HTTP压缩、SSL加速等众多优化技术通过减少服务器的硬件资源消耗,缩短服务器响应时间,在节省了硬件投资成本的同时,提升了用户的访问体验(详细介绍参见4.6)。

3.6 单边加速技术

深信服AD单边加速解决方案,区别于传统的加速解决方案。首先,它不需要在用户电脑上安装任何软件和控件,对用户访问透明,而且可以在不升级带宽的前提下,减少应用程序的响应时间,提升用户的访问速度。

在各类的网络环境之中,深信服AD的单边加速技术在不需要安装任何插件或者软件的情况下,能够极大的提升用户的访问速度,特别是比较常见的跨运营商的网络环境之中,深信服AD的单边加速能够显著提高网络效率,提升空间一般在2倍至50倍之间,有的情况下甚至高达100倍。

3.7 商业智能分析

深信服AD设备具备强大的统计分析功能,能够有效统计分析服务器的使用情况,包括流量、连接数、用户数。能够有效统计服务器的使用状况,包括连接数、响应时间、健康状态等。能有效统计访问用户的时间、地域分布特性以及用户的应用访问偏好,能够帮助企业快速全面的了解整个应用发布系统各个元素的运行状况。

第4章相关技术介绍

4.1 负载均衡算法

深信服AD支持多重负载均衡算法将所有流量均衡的分配到各个服务器,不仅充分利用所有的服务器资源,而且各个服务器均衡的承担流量处理任务,从而有效地避免服务器处理任务“不平衡”现象的发生。

轮询:按照请求的先后顺序将用户请求循环地分配到每台服务器。一旦某台服务器出现故障将不再为其分配任务,直至服务器恢复正常。

加权轮询:由于集群中的不同服务器可能有不同的功能,因此可以为各个服务器分配不同的加权值。根据这个比例,把用户的请求分配到每个服务器。

加权最小连接:根据事先为各服务器设定的权值,在调度新连接时尽可能的使服务器已建立连接数和其权值构成比例,AD把新的连接请求分配到当前比例最小的服务器上。

最快响应: 按照响应时间大小对服务器重新分配权值,响应时间小的服务器权值大,响应时间大的服务器权值小,从而响应时间小的服务器获得更多的连接请求,但又照顾一部分响应时间大的服务器,避免负载倾斜。

动态反馈:通过检测服务CPU等相关设备利用率综合情况,来判断各个服务器的服务处理能力的,在调度新连接时尽可能的选择性能最佳的服务器。

一致性哈希算法:支持URL、HOST、SRC_IP。

优先级:将服务器按优先级分组,优先调度优先级高的,只有优先级高的服务器发生故障,才调度优先级低的服务器。

哈希:支持基于URI、HOST、SRC_IP的哈希算法,将用户不同的用户访问调度到不同的链路上,如不同的域名请求访问调度不到不同的链路之上。

4.2 健康检查机制

深信服AD支持包括基于硬件运行状况的检查、基于应用类型的健康检查以及自定义的健康检查机制。

基于硬件运行状况的检查:通过PING、SNMP等方式监控服务器的运行状况,一旦出现ping无回包、服务器资源消耗过高、死机等情况,都可以实时将访问请求分配到其他正常的服务器之上。

基于应用类型的检查:深信服AD支持根据不同应用类型交互机制设定相应的健康检查机制,如HTTP、FTP、email等都可以通过相应的健康机制监控应用的运行状况,如果发现故障,用户即被透明地分配到其它正常工作的服务器上。

自定义内容检查机制:是通过预设自定义字符串,来判断服务器应用是否运行正常;如对某个应用用户通过预先设定该应用正常返回包中应该包含的字符串,深信服AD检验服务器返回数据包内是否包含了该特定内容,如果没有包含该内容,就认定该服务器故障,将用户的访问请求分配到其他健康的服务器之上。

4.3 会话保持

通过深信服AD的会话保持技术为客户选择用户曾连接上的那台服务器,实现无缝地处理用户请求。深信服AD会话保持的功能将减少新建连接的数量,这将有助于减少负载均衡的系统开销。

Cookies保持,Cookie持续性利用客户机存储的cookie信息来把客户机连接到合适的服务器上。其原理如下:

首次命中

HTTP请求(不带有cookie)进入SANGFOR AD。

SANGFOR AD任选一台服务器,将请求发送至该服务器。

来自该服务器的HTTP回复此时包括一个空白的cookie 。

SANGFOR AD重写cookie,并在粘贴一个特殊的cookie后将HTTP回复发送回去。

再次命中

HTTP请求(带有与上面同样的cookie)进入SANGFOR AD。

SANGFOR AD借助cookie信息确定合适的服务器。

HTTP请求(带有与上面同样的cookie)进入服务器。

HTTP回复(带有空白cookie)返回SANGFOR AD,后者将向客户机提供更新后的cookie。

IP保持,在这一模式下,只要持续性计数器尚未到时,指定流向某虚拟服务器的特定用户流量就会持续流向同一台服务器。

4.4 单边加速技术

深信服单边加速技术通过自动、实时、持续、动态地侦测网络路径中的延迟、丢包、重传的情况,改变传出机制和改善传输拥塞机制,避免数据报文的过度重发,减少应用响应时间,提升TCP传输效率,从而节省了企业广域网带宽资源和响应时间。单边加速使用效果,参见下表:

网络世界评测模拟环境数据

网络世界评测真实环境数据

4.5 商业智能分析

深信服AD产品具有强大商业智能分析能力,从用户的角度出发,对整个数据流程进行监测,包括用户、链路、应用、服务器等,对整个应用交付的各个元素进行详细的分析,主要可以分为以下几个方面:

1、详细的链路报表:提供单条或多条链路的详细报表,包括链路上下行流量报表、会话连接链路分布报表、链路IP访问量报表、链路质量报表等。通过上述报表能够准确了解企事业单位多条链路的负荷状况以及健康状况,为企事业单位对自身的链路部署策略提供决策依据。

2、丰富的服务报表:包括服务器的响应时间统计报表、服务在单条/全部链路之上数据的IP/用户访问数量统计报表、各服务器流量以及连接数统计报表、各服务器健康情况统计等。通过上述报表能够让客户了解服务器的负载情况以及服务器健康状况,并以此为基础进一步优化服务器的均衡策略,调整服务器的部署方法,充分利用自身服务器资源。

3、商业决策报表:包括按时间段分析各服务访问量报表、按区域分析各服务访问量报表、按服务资源(如:URL)分析访问量报表。上述报表能够协助企事业单位收集商业各类信息,让企事业单位了解服务的时间分布特性,熟悉最终用户的访问的时间偏好,在此基础之上决定是否采取相应的手段保证服务能够平稳度过高峰期,保证服务的稳定性。同样企事业单位也能非常直观快捷的了解到最终用户的使用偏好,比如哪些应用访问频率最高,哪些

应用很少被人访问,并可以以此作为为商业决策的数据来源之一。

4.6 性能优化技术

4.6.1TCP连接复用

深信服AD产品通过将众多客户端连接请求捆绑后,复用相对较少的服务器TCP连接,而不用通过一对一的方式把每一个用户的HTTP/TCP分配到服务器。在不需要改变任何网络构造也不需要增加组织的硬件投资成本的情况下减少服务器的负载,从而提高服务器的处理能力。

深信服AD产品预先与后台服务器之间建立多个TCP连接,并持续保持,这样显著减少了后台服务器需要处理的用户端连接数(减少量最高可以达到90%),加快了客户端与后台服务器之间的连接处理速度,提高应用系统的处理能力,节省组织的硬件投资成本。

4.6.2内存缓存

深信服AD产品基于内存的反向代理Cache功能,在内存中以数据包的形式缓存网站等相关资源的页面内容,采用内存缓存和包存储结构的方式,通过动态调整缓存空间提供比其它缓存产品更快速的响应速度。

深信服AD产品缓存功能降低用户访问对后台服务器的负载压力,在减小了后台服务器

投资成本的同时,提高了系统的处理能力和用户的访问体验。

4.6.3HTTP压缩

深信服AD产品HTTP压缩功能,通过标准的HTTP压缩规范能够自动识别客户端对压缩算法的支持情况,并能够实现对数据动态压缩。

深信服AD产品压缩功能最大程度上节省组织的互联网带宽,缩短用户下载内容的时间,减轻了Web Server的压力,节省硬件投资成本,提升用户的访问体验。

4.6.4SSL加速

深信服AD产品SSL卸载技术具有极高的SSL处理能力,能够实现端到端的SSL加密,同时具备完整的证书管理特性。

深信服AD产品通过对服务器的SSL卸载处理,减少服务器性能消耗的同时,节省了应用系统服务器数量,降低了用户的应用硬件投资,大幅度缩短用户请求的响应时间从而极大提升了用户的访问体验。

4.6.5智能路由技术

智能路由技术是深信服AD应用交付产品智能化进程中又一里程碑,通过智能路由技术,管理人员即使对负载算法和策略不熟悉,只要选择目前自己对于链路利用所期望达到的效果,就可通过配置向导实现对负载策略的轻松配置。

同时实现基于时间段的负载均衡,即在不同的时间段采用不同的负载均衡策略,实现网络和服务器资源利用率的最大化。

4.6.6智能告警技术

通过管理员预先设定的想了解的信息,一旦链路或者服务器出现故障的时候就可以通过短信或者邮件的形式通知相关管理人员进行维护。

支持报警对象包括:链路、服务器、虚拟服务、双机切换、网络攻击等。

第5章客户案例

5.1.1最高法选择深信服AD打造稳定的对外发布平台

应用背景:

最高人民法院是中华人民共和国最高审判机关,负责审理各类案件,制定司法解释,监

督地方各级人民法院和专门人民法院的审判工作,并依照法律确定的职责范围,管理全国法院的司法行政工作。

地方各级人民法院包括高级人民法院、中级人民法院、基层人民法院,专门人民法院包括海事法院和军事法院。最高人民法院监督地方各级人民法院和专门人民法院的审判工作。上级人民法院监督下级人民法院的工作。根据统计,全国共有32个高级人民法院(含1个解放军军事法院),409个中级人民法院,3117个基层人民法院。全国共有法官19万余人,其中高级人民法院共有0.7万人,中级人民法院共有3.6万人,基层人民法院共有14.6万人。女法官占24.81%。

问题分析:

随着业务的发展和信息化建设步伐的加快,最高人民法院信息化网络的IT应用系统实现了数据的集中(包括办公OA、内部邮件、对外发布的web站点、专网内的业务系统等),现在所有的共享数据库放到最高人民法院的数据中心,以供专网内各个分支机构访问,同时对外发布的网站服务器数量也由原来的一台,变为现在的数台,以满足多台服务器冗余实现稳定性访问,因此最高人民法院需要解决多台服务器集群后的负载均衡的问题。

深信服解决之道:

原最高法对外门户支持仅为1台服务器,随着最高法对外业务的扩容,服务器压力随之增大,稳定性也受到挑战。为提升对外门户的最大可访问量,减少单点故障带来的稳定性风险,本次方案将对外门户网站服务器扩容至两台,同时采用负载均衡服务器做性能分担。

深信服AD设备单臂部署,采用轮询算法使得服务器平均分担负载。同时通过深信服AD商业智能分析,管理人员可实时方便的了解访问用户习惯。

该门户网站采用统一域名方式访问,不同的用户使用同一个域名时,内网用户直接走最高法同IDC机房的专线从内网访问,外网用户组则通过公网直接访问。

应用效果:

1、服务器负载均衡

深信服AD实现网络中多台服务器的负载均衡。AD可以根据相应的服务器负载均衡算法来实现快速访问的智能引导,当用户请求到深信服AD设备的时候,根据预先设定好负载策略能够合理的将每个连接快速的分配最合适的服务器,提升服务器的利用率,保证用户访问的快速性和稳定性。

深信服AD的健康检查机制实现对服务器健康状况的实时监控,能够实时的发现出现故障的服务器,同时能够将用户的下一次连接情况平滑的切换到其他正常服务的服务器之上,保证应用服务的稳定性。

2、易于管理性

深信服AD产品提供https的安全Web全中文的界面管理,本地基于Serial Console的管理和SSH安全远程命令行管理。

深信服AD产品还支持商业能分析功能,能够全面统计会话数的运行状况如会话连接数、用户数、应用分布情况、IP来源等相关情况,方便管理员对网络进行优化。

5.1.2广西质监部署深信服AD应用交付

客户背景

广西壮族自治区质量技术监督局于2000年由原广西壮族自治区技术监督局更名成立,

是自治区人民政府直属机构,是管理全区标准化、计量、质量工作并行使执法监督职能的主管部门,由国家质量监督检验检疫总局实行业务领导,对自治区以下质量技术监督系统实行垂直管理。广西区质量监督局作为全省质量监管领导部门,担负着保障质量安全的重大责任,相应的质量监督部门的正常运作必须得到严格保证。随着业务的发展和信息化建设步伐的加快,区质量监督局分支网络的IT应用系统实现了数据的集中(包括办公OA、内部邮件、行政审批内网、行政审批外网、质监业务应用内网、FTP、门户网站),现在大部分的共享数据库放到区局的数据中心,以供各个分支机构访问,

客户需求

随着访问用户数量的增加,给区质量监督局的服务器带来越来越大的压力,如有有效的保证客户访问速度,实现访问流量在各服务器上均衡分配,充分利用各服务器资源,是目前区质量监督局网络改造的重要目标。

区质量监督局的质监业务系统中有10多台服务器,如果采用服务器群,会造成访问地址的复杂化和负载不平衡。对于每台服务器都必须有相应的唯一的IP地址,给用户的访问和网络管理带来不便;这些服务器之间的流量分配是随机的,不会考虑服务器当前的负载情况,在某些情形之下反而造成连接失败。

为了解决上述存在的问题,区质量监督局希望通过服务器负载均衡机制,保证用户访问流量能在各服务器上均衡分配,提高服务器资源的利用率。并且当某台服务器发生故障时能被及时检测到,并且故障服务器将会被自动隔离,直到其恢复正常后自动加入服务器群,实现透明的容错,保证服务器整体性能得到大幅提升。

解决方案

网络拓扑图

应用效果

两台SANGFOR AD以主备的方式实现网络中多台服务器的负载均衡及冗余。AD根据用户设定的服务器负载均衡算法来实现快速访问的引导,当用户请求到SANGFOR AD设备的时候,根据策略能够合理的将每个连接快速的分配最合适的服务器,提升服务器的利用率,保证用户访问的快速性和稳定性。

SANGFOR AD的健康检查机制实现对服务器健康状况的实时监控,能够实时的发现出现故障的服务器,同时能够将用户的下一次连接情况平滑的切换到其他正常服务的服务器之上,保证应用服务的稳定性

两台SANGFOR AD设备以主备的冗余方式方连接,处于备份状态的设备采用“心跳线”监测运行的设备的状态,当检测出设备故障时,两台设备就会产生毫秒级切换,备份设备会切换为运行主机,为用户提供服务,保证了系统的高可用性。

5.2 更多成功客户

第6章SANGFOR专业服务

深信服科技有限公司致力于提升商业用户互联网带宽价值。利用创新、高性价比的产品,围绕商业用户Internet带宽资源,帮助用户降低成本(IPSec VPN实现网间互联)、提高效率(SSL VPN实现随时随地的移动办公、网间加速技术大幅度提升广域网速度)、防范风险(上网行为管理设备全面维护内网安全)等,提升Internet带宽价值。

公司现有产品包括SSL VPN,上网行为管理,广域网加速设备和IPSec VPN等。从2000年底成立至今,公司以每年销售收入增长2-3倍、人员增长1倍的速度高速发展,在近五年连续入选德勤中国高科技、高成长50强。深信服科技坚持自主研发、每年将销售收入的

服务器配置方案v1.1

服务器配置方案

目录 服务器配置方案 (1) 第一章引言 (3) 1.1.编写目的 (3) 1.2.项目背景 (3) 第二章系统网络拓扑结构 (4) 第三章硬件需求 (6) 第四章软件需求 (7) 第五章网络需求 (8) 第六章云环境租用说明 (8)

第一章引言 1.1.编写目的 该文档针对工程造价类项目管理信息系统(以下简称项目管理系统)的实际情况,提出其服务器配置方案。方案的制定本着满足用户实际需要并降低资金投入的原则,需要满足从硬件、网络、软件、安全等方面进行阐述,提供主推方案和备选方案,以便用户根据自身特点进行决策。 1.2.现状和目标 工程造价类项目管理信息系统建设的主要目的是:建立对造价项目的全生命周期管理,包括从项目的启发到项目的后评估,对项目的各里程碑阶段提供信息化支撑手段;统一管理造价项目的各类信息,做到安全存储、有效统计、有效分析;实现造价项目相关流程的信息化,提高流程的流转效率,降低因纸质流程所带来的效率低下和非增值工作的浪费。因此系统的运行需要满足以下目标: 用户在内外网均可访问:公司的员工可以在公司局域网和Internet上均能够访问使用系统; 高可用性:当其中运行着的一台服务器出现故障无法启动时,另一台备份服务器会迅速的自动启动并运行(一般为2分钟左右),从而保证整 个系统的正常运行。 扩展性:整个网络以及硬件环境须具有可扩展性,满足公司用户能正常流畅的实用系统。比如存储能能扩展满足日益增长公司业务需求等。 项目管理系统适用于以项目管理为主线贯穿销售、人资、客服等环节业务的管理。用户范围包括造价项目相关的所有人员,目前公司员工240多人,预计在2015年员工总人数达到300人以上,因此系统实用规模预计支持在线用户200人,并发用户50人。 公司目前硬件环境如下:

服务器负载均衡技术

HUAWEI USG6000V系列NFV防火墙技术白皮书之---服务器负载均衡技术白皮书 华为技术有限公司 Huawei Technologies Co., Ltd.

目录 1背景和概述 (2) 2全局服务器负载均衡(GSLB) (3) 3本地服务器负载均衡(LSLB) (4) 3.1使用目的MAC地址转换的服务器负载均衡(DR) (4) 3.2使用网络地址转换实现的服务器负载均衡(L4 SLB) (5) 3.3使用轻量代理和网络地址转换的服务器负载均衡(L4 lwProxy SLB) (7) 3.4使用全量Socket 代理的服务器负载均衡(L7 Socket Proxy SLB) (9) 3.4.1socket代理加业务会话关联保持 (9) 3.4.2根据URL类型不同的分担,静态资源访问和动态计算访问分开多种服务 器10 3.4.3SSL卸载 (10) 3.4.4链路优化:压缩、协议优化、本地cache、多路复用 (11) 3.5业务保持技术 (13) 4华为USG防火墙支持的SLB功能列表 (14)

1 背景和概述 随着互联网的快速发展,用户访问量的快速增长,使得单一的服务器性能已经无法满足大量用户的访问,企业开始通过部署多台服务器来解决性能的问题,由此就产生了服务器负载均衡的相关技术方案。 在实际的服务器负载均衡应用中,由于需要均衡的业务种类以及实际服务器部署场景的不同(比如是否跨地域、跨ISP数据中心等),存在多种负载均衡的技术。如下典型的组网方式如图所示: 服务提供方为了支撑大批量的用户访问,以及跨不同地域、不同接入ISP的用户都能够获得高质量的业务访问体验,其已经在不同地域、不同ISP数据中心搭建了服务器,这样就带来一个需求,也就是客户的访问能够就近、优先选择同一个ISP数据中心的服务器,从而获得高质量的业务访问体验。 同时,基于单台服务器能够提供的业务访问并发是有限的,那么就自然想到使用多台服务器来形成一个“集群”,对外展现出一个业务访问服务器,以满足大量用户访问、而且可以根据业务访问量的上升可以动态的进行业务能力扩容的需要。

服务器灾备方案

服务器灾备方案 一、服务器灾备的目的 服务器灾备计划就是在平时对服务器的重要数据、数据库、配置文件、应用服务等做备份,为了在发生重大灾难或者事故后,能尽快将原服务器中重要的数据、数据库或者应用服务等恢复出来继续给客户提供服务。 ※本方案适用于基于Windows操作平台下的服务器。 二、主要的服务器备份方式 按备份系统的准备程度,可将其分为冷备份、温备份和热备份三大类。 冷备份 备份系统未安装或未配置成与当前使用的系统相同或相似的运行环境, 应用系统数据没有及时装入备份系统。一旦发生灾难,需安装配置所需的运行环境,用数据备份介质(磁带或光盘)恢复应用数据,手工逐笔或自动批量追补孤立数据,将终端用户通过通讯线路切换到备份系统,恢复业务运行。优点:设备投资较少,节省通信费用,通信环境要求不高。缺点:恢复时间较长,一般要数天至1周,数据完整性与一致性较差。 温备份 将备份系统已安装配置成与当前使用的系统相同或相似的系统和网络运行环境,安装了应用系统业务定期备份数据。一旦发生灾难,直接使用定期备份数据,手工逐笔或自动批量追补孤立数据或将终端用户通过通讯线路切换到备份系统,恢复业务运行。优点:设备投资较少,通信环境要求不高。缺点:恢复时间长,一般要十几个小时至数天,数据完整性与一致性较差。 热备份 备份处于联机状态,当前应用系统通过高速通信线路将数据实时传送到备份系统,保持备份系统与当前应用系统数据的同步;也可定时在备份系统上恢复应用系统的数据。一旦发生灾难,不用追补或只需追补很少的孤立数据,备份系统可快速接替生产系统运行,恢复营业。优点:恢复时间短,一般几十分钟到数小时,数据完整性与一致性最好,数据丢失可能性最小。缺点:设备投资大,通信费用高,通信环境要求高,平时运行管理较复杂。 在计算机服务器备份和恢复中,冷备份服务器(cold server)是在主服务器丢失的情况下才使用的备份服务器。冷备份服务器基本上只在软件安装和配置的情况下打开,然后关闭直到需要时再打开。 温备份服务器(warm server)一般都是周期性开机,根据主服务器内容进行更新,

服务器部署方案

FMScms网站包含2个部分,即为客户端和服务端。 客户端:网站前台+网站后台 服务端:FMS直播软件和组件 FMS主播系统工作图解 FMS主播系统服务器架构以及硬件级宽带需求说明 FMS服务器安排需要两部分,WEB服务器以及FMS直播服务器,即为开始所说的用程序的2部分。 WEB服务器的作用是用来安装承载用户访问的客户端(网站或者移动端前台) FMS直播服务器的作用是用来接收处理并发布直播视频流 一般来说,WEB服务器的要求不高,普通的服务器或者云主机就可以满足需求,FMS服务器相对来说带宽要求较高,硬件要求:市面上配置不错的独立服务器即可满足,当然还是推荐SSD固态硬盘。 服务架构图

服务器架构方案一: FMS直播中可以通过调整视频直播品质来调整带宽占用大小(视频品质数值范围1-100,数值越小品质越差) 1、通常一个在线观众要流畅清晰的观看标清视频需要大概30k~40k的带宽流量。 2、带宽的换算方法是128k的流量需要1M的网络带宽。 3、服务器所要负载的带宽是按可承载的最高并发流量计算出来的。并发流量是指同时访问资源的流量值, 如果是利用FMS技术,要想满足并发流量的需求就需要将流量累加。如100人同时访问视频资源则可计算出:100人 * 30k = 3000k 3000k ÷ 128k/M = 23.4M(约20M带宽) 如果网站的视频观众最高并发量时达到100人,就需要至少20M的带宽; 如果网站的视频观众最高并发量时达到1000人,就需要至少200M的带宽; 如果网站的视频观众最高并发量时达到5000人,就需要至少1000M的带宽; 推荐服务器: 服务器的配置重点在于带宽,根据市场了解G端口<1000M带宽>的服务器 推荐硬件配置 固态硬盘,大内存即可,CPU占用率相对较低,目前没有一定数量的真实用户,暂时不能测试出对服务器硬 件的消耗值,不过16G内存的服务器承载5000人同时观看直播。 服务器架构方案二:

服务器负载均衡的设计与实现

服务器负载均衡的设计与实现 在该架构中OpenFlow控制器可以获取每个服务器的运行状态,并根据运行状态分发用户请求,最大程度地利用每台服务器的计算资源,并且可以在系统运行期间动态地添加或删除服务器,使系统具备很高的灵活性。 1、动态负载均衡架构的整体设计 负载均衡架构是在一个非结构化的网络中使用集中式的控制器实现多台服务器共同对外提供服务。OpenFlow网络中的所有交换机都连接在一个控制器上,每台服务器有两块网卡,一块网卡连接到OpenFlow网络对用户提供网络服务,另一块通过以太网交换机和控制器相连,以便控制器通过SNMP协议获取服务器的运行状态,具体架构如图所示。 在上述负载均衡架构中控制器是网络的核心,其主要功能有四个,分别为: 保证网络正常的通信、获取服务器的运行状态、通过负载均衡算法计算服务器的综合负载、向交换机下发流表项以转发用户请求;控制器的模块设计如图所示。 本文阐述的负载均衡架构可以工作在任意openflow网络中,而不是专门为某个服务器

所设计的负载均衡,控制器的首要任务就是保证网络可以提供正常的数据转发服务,为了保证网络既可以为其他服务提供基础支持又保证负载均衡能够正常工作,在控制器的转发控制中有两个模块,第一个模块负责负载均衡服务,第二个模块负责网络的基本通信。当一个数据包到达Openflow交换机后,如果交换机找不到可以匹配的流表项,就会向控制发送packet-in消息,控制器收到packet-in消息之后首先交给负载均衡模块,由负载均衡模块处理该消息,如果该数据包的目的IP 不是负载均衡所负责的网络服务,如果该数据包的目的IP不是负载均衡所负责的网络服务,负载均衡模块就不会做任何处理而是直接packet-in 消息传递给网络通信模块,以保证其它业务正常通信。如果该数据包的目的IP是负载均衡所负责的网络服务,负载均衡模块就向交换机下发流表项让交换机完成负载均衡服务。 为了有效地利用计算资源,控制器还需要根据服务器的运行状态转发用户请求,因此控制器还要完成这方面的工作。在此架构中每台服务器都有一块通过以太网交换机和控制器相连的网卡,控制器通过以太网交换机和服务器通信,利用SNMP协议获取服务器的运行状态。在此架构中就算没有和服务器相连的网卡,控制器也可以通过Openflow网络和服务器通信,本文之所以没有这么做是因为控制器直接和连接在openflow网络中的服务器通信需要交换机把所有服务器所发送的消息封装成packet-in消息发送给交换机,控制器也必须通过向交换机发送packet-out消息才能把数据发送给服务器,这样做会给交换机和控制器同时带来很大的压力。 因为服务器的运行状态必须由多条信息才能描述清楚,所以就算得到服务器的运行状态之后,也无法根据多条信息判断哪台服务器的负载最低。因此本文在控制器中运行了一个负载均衡算法,控制器会把服务的运行状态作为负载均衡算法的参数代入到服务器综合负载的运算中,计算出服务器的综合负载,并根据综合负载得到负载最小的服务器。 负载均衡的核心内容就是让交换机分发用户的请求,用户请求的第一个数据包到达交换级之后,交换机会通过packet-in消息把数据包发送给控制器,控制器中的负载均衡模块会通过SNMP协议获取所有服务器的运行状态,并根据运行状态计算服务器的综合负载,之后把用户的请求转发给综合负载最小的服务器。 2、动态负载均衡架构的设计与实现 负载均衡常用的算法有随机、轮训和最小连接数,原因是这三种算法很容易用硬件实现,这三种算法中最小连接数算法的效果是最理想的,但是如果集群中的服务器在CPU、内存、网络带宽上的配置不相同,这三个算法都不能充分地发挥服务器集群的计算能力。在openflow网络中,网络的控制层由软件制定,负载均衡算法也可以集成在控制器中,使用软件完成,这样可以更准确地评估服务器的负载情况。本文阐述的负载均衡方案中就设计了一个负载均衡算法,根据服务器的运行状态计算服务器的综合负载,并返回综合负载最小的服务器。该算法可以在服务器性能差距较大的集群中充分发挥每一台服务器的计算能力,算法的具体实现过程如下: 1)动态反馈当前服务器负载量 主要收集每台服务器CPU和内存的使用率,这些信息并不能直接表示一台服务器的负载情况,所以使用公式1把CPU和内存信息转换为服务器的负载量,其中LC为第i台服务器CPU的使用率,LM为第i台内存的使用率,r1和r2为权值,用于强调该服务类型对各个部分的不同影响程度,r1+r2=1,LS为计算得出的第i台服务器负载量 LS=r1LC+r2*LM 2)服务器处理能力计算; 集群中服务器的性能也可能不同,在计算服务器负载的时候还要考虑服务器的处理能力,第i台服务器的处理能力使用C(i)表示,C的计算方法如公式所示,其中P为第i台服务器CPU的个数,M为第i台服务器内存的大小,r1和r2为权值,r1+r2=1。

服务器配置方案

服务器配置方案 本文转自:傲龙网络 在日常工作中,经常给客户进行硬件配置建议,发现很多客户基本的信息化基础的知识都不是太懂,比如服务器配置数选择和用户数关系等等。甚至很多IT专业人士,比如erp,crm顾问都不是很清楚。当然也有可能这些顾问只专注于他自己工作的那一块,认为这些是售前干的事情,不需要了解太多。在我看来我觉得多了解一些,碰到不懂的客户也可以给人家说个所以然出来,至少也没有什么坏处嘛。下面这篇文章也是平常的工作总结,贴出来给大家分享一下,也许还用的着。 第一章服务器选择 1.1 服务器选择和用户数关系

说明: 首选原则:在初期给客户提供硬件配置参考时,在线用户数建议

按注册用户数(或工作站数量)的50%计算。 备用原则:根据企业的行业特点、用户使用频度、应用特点、硬件投入等综合因素考虑,在线用户数比例可以适当下调,由售前/销售人员在对客户的具体情况进行了解后做出适当的建议。 服务器推荐选择品牌:IBM、DELL(戴尔)、HP(惠普)、Sun 、Lenovo (联想)、浪潮、曙光等品牌机型。 CPU:如果因为选择不同品牌服务器或双核处理器导致CPU型号/主频变动,只要求达到同级别或该级别以上处理能力。 硬盘:对于硬盘方面,推荐选择SCSI硬盘,并做RAID5;对于小企业可以如果由于采购成本的考虑也可采用SATA。对于2000注册用户数以上企业,强烈推荐采用磁盘阵列。 硬盘容量=每用户分配容量×注册用户数+操作系统容量+部分冗余 1.2 常见机型参考报价

由于IBM服务器在几个品牌的PC服务器系列中价格较高,如果报价是供客户做预算用,则可将该报价直接发给客户供参考,减少商务询价的工作量。 硬件配置和相关型号可上网查询: IBM服务器 HP服务器 DELL服务器 SUN服务器 Lenovo(联想) 1.3 服务器选择和用户数关系在线计算 在IBM网站上有提供IBM Systems Workload Estimator工具可用于

服务器部署方案

服务器部署方案标准化管理处编码[BBX968T-XBB8968-NNJ668-MM9N]

FMScms网站包含2个部分,即为客户端和服务端。 客户端:网站前台+网站后台 服务端:FMS直播软件和组件 FMS主播系统工作图解 FMS主播系统服务器架构以及硬件级宽带需求说明 FMS服务器安排需要两部分,WEB服务器以及FMS直播服务器,即为开始所说的用程序的2部分。 WEB服务器的作用是用来安装承载用户访问的客户端(网站或者移动端前台) FMS直播服务器的作用是用来接收处理并发布直播视频流 一般来说,WEB服务器的要求不高,普通的服务器或者云主机就可以满足需求,FMS服务器相对来说带宽要求较高,硬件要求:市面上配置不错的独立服务器即可满足,当然还是推荐SSD固态硬盘。 服务架构图 服务器架构方案一: FMS直播中可以通过调整视频直播品质来调整带宽占用大小(视频品质数值范围1-100,数值越小品质越差) 1、通常一个在线观众要流畅清晰的观看标清视频需要大概30k~40k的带宽流量。 2、带宽的换算方法是128k的流量需要1M的网络带宽。 3、服务器所要负载的带宽是按可承载的最高并发流量计算出来的。并发流量是指同时访问资源的流量值,如果是利用FMS技术,要想满足并发流量的需求就需要将流量累加。如100人同时访问视频资源则可计算出: 100人 * 30k = 3000k 3000k ÷ 128k/M = (约20M带宽)

如果网站的视频观众最高并发量时达到100人,就需要至少20M的带宽; 如果网站的视频观众最高并发量时达到1000人,就需要至少200M的带宽; 如果网站的视频观众最高并发量时达到5000人,就需要至少1000M的带宽; 推荐服务器: 服务器的配置重点在于带宽,根据市场了解G端口<1000M带宽>的服务器 推荐硬件配置 固态硬盘,大内存即可,CPU占用率相对较低,目前没有一定数量的真实用户,暂时不能测试出对服务器硬件的消耗值,不过16G内存的服务器承载5000人同时观看直播。 服务器架构方案二: 采用CDN加速,分发流媒体。这种方式目前也是需要FMS服务器,未来一段时间我们会用另外的方法代替,不过这种方式对服务器的硬件以及带宽的需求就大大减小了。 1.web服务器,当然也可以安装FMS 2.流媒体服务器,这里的流媒体服务器FMS只用来承载聊天、礼物赠送等数据 3.接入CDN,我们目前支持RTMP协议的流媒体加速方式,即将推出的版本的FMSCMS会 添加HTTP协议的流媒体,更适合主流加速方式。 方案二的优点 1.服务器硬件以及带宽要求降低太多,节省服务器成本 2.在线观看直播人数可以无限拓宽,不需要担心服务器占用达到峰值的危险 3.网络环境得到优化,直播效果更加理想

负载均衡解决方案设计设计

一、用户需求 本案例公司中现有数量较多的服务器群: WEB网站服务器 4台 邮件服务器 2台 虚拟主机服务器 10台 应用服务器 2台 数据库 2台(双机+盘阵) 希望通过服务器负载均衡设备实现各服务器群的流量动态负载均衡,并互为冗余备份。并要求新系统应有一定的扩展性,如数据访问量继续增大,可再添加新的服务器加入负载均衡系统。 二、需求分析 我们对用户的需求可分如下几点分析和考虑: 1.新系统能动态分配各服务器之间的访问流量;同时能互为冗余,当其中 一台服务器发生故障时,其余服务器能即时替代工作,保证系统访问的 不中断; 2.新系统应能管理不同应用的带宽,如优先保证某些重要应用的带宽要 求,同时限定某些不必要应用的带宽,合理高效地利用现有资源;

3.新系统应能对高层应用提供安全保证,在路由器和防火墙基础上提供了 更进一步的防线; 4.新系统应具备较强的扩展性。 o容量上:如数据访问量继续增大,可再添加新的服务器加入系统; o应用上:如当数据访问量增大到防火墙成为瓶颈时,防火墙的动态负载均衡方案,又如针对链路提出新要求时关于Internet访问 链路的动态负载均衡方案等。 三、解决方案 梭子鱼安全负载均衡方案总体设计 采用服务器负载均衡设备提供本地的服务器群负载均衡和容错,适用于处在同一个局域网上的服务器群。服务器负载均衡设备带给我们的最主要功能是:

当一台服务器配置到不同的服务器群(Farm)上,就能同时提供多个不同的应用。可以对于每个服务器群设定一个IP地址,或者利用服务器负载均衡设备的多TCP端口配置特性,配置超级服务器群(SuperFarm),统一提供各种应用服务。

深信服负载均衡AD彩页解决方案

深信服应用交付AD 深信服,作为中国最大最有竞争力的前沿网络设备供应商,为3万多家客户提供了稳定可靠的访问,每秒钟经过深信服AD处理的业务交易量高达数千万笔,在中国入选世界500强的企业中,85%以上企业都是深信服的客户。 中国第一品牌 全球知名分析机构Frost & Sullivan发布的《2013年中国应用交付产品(ADC)市场分析报告》显示:深信服应用交付AD在2013年依然保持强劲增长,在中国市场占比中,超越Radware,升至第二,与F5再次缩小距离,并继续保持国产厂商第一的领导地位。 ④报告数据显示,Sangfor(深信服)2013年在中国地区应用交付市场 的份额达到14.1%,排名升至第二位。 ④自2009年推出到市场上以来,深信服AD产品由第九名一跃进入三 甲,在国产厂商中名列前茅。AD产品广泛应用于国家部委单位的核心 系统与电信运营商的生产网。 ④优异的市场表现,也促使深信服成为唯一入选Gartner应用交付魔力 象限的国产厂商,分析师对深信服产品的安全性评价尤为突出。 面向未来的应用交付产品 随着大数据时代的来临,即便是当前强劲的10Gbps性能设备在面对数十G业务量的并发处理时,也难免也会捉襟见肘。顺应网络发展的趋势,深信服AD系列产品采取基于原生64位系统的软硬架构设计,在确保高性能处理能力的同时,提供电信级的设备可靠性。 深信服AD可帮助用户有效提升 ?应用系统的处理性能与高可用性 ?多条ISP出口线路的访问通畅、均衡利用 ?分布式数据中心的全局调度、业务永续 ?业务应用的安全发布与高效访问 ④兼顾高性能与高稳定性的架构设计,原生64位内核OS,数据面与控制面相分离,确保软件系统的稳定高效。 ④非对称多处理架构发挥出多核硬件平台的极致性能,实现高达60Gbps的单机性能处理性能。 ④提供100Gbps 以上业务量的性能扩容方案,以满足运营商和金融行业对于扩展性与高可用性的追求。

服务器安装方案

一、实施计划方案 实施方案和计划进度 针对本次的项目实施,我公司将组建项目实施小组,按客户的要求和相应的设计方案,完成设备采购要求的伴随服务中的安装调试环节,实施过程采用项目管理方式进行管理和运作。 在项目组成员的选择上,我公司会选择经验丰富的项目管理人员出任项目经理,并挑选各类资深认证工程师及商务、物流接口人组成专门的项目组。 人员构成 团队组成 岗位人员职责 发起人高青负责项目运作的监控和变更审批 负责项目质量定义和实施检查 项目经理刘庆负责项目整体运作、客户接口及合作方协调工作 负责项目计划实施、流程规范执行管理 负责跟踪项目执行和服务质量监控 负责协调人员到场及货物交接 负责组织验收、客户回访 负责项目执行成本进度分析和控制 资深工程师A 孟亮负责整体项目架构的构建和实施指导 配合及测试验收工作 资深工程师B 陈警负责现场环境考察、客户需求沟通 负责实施方案撰写 负责现场部分实施工作及测试验收工作 项目实施进度计划 针对客户项目的设计和实施需求,安装实施项目大致可分为以下阶段一、立项、启动和计划阶段控制过程 主要完成以下工作: ●任命项目经理,召开项目启动会 ●项目实施计划、项目流程管理规范、执行文档模板的撰写 ●项目资源规划及落实 ●建立顺畅的沟通渠道和机制 二、考察、咨询、方案设计阶段 主要完成以下工作: ●客户安装现场环境考察 ●客户需求沟通,并提供安装、调试及系统架构相关技术咨询 ●项目实施技术方案撰写

●实施方案完善并提交客户审核 ●提交现场环境需求书和整改建议 三、订货跟踪阶段 此阶段神码将指定专人进行跟踪。及时跟踪产品订货的各项环节,及时汇报进展程度和进度预期。项目组将对可能发生的延误风险进行及时的处理,以避免和缓解影响。 四、实施准备阶段 针对项目实施所用到的工具、设备、介质和其他资源进行检测,确保完好可用 完成初步的实施、维护、使用及测试验收文档模板 五、到货交付阶段 ●完成内部货物入库,销售、出库、运输流程 ●协调人员进行现场货物交接和签收 ●对交付中产生的问题进行记录,并尽快积极解决,达到合同要求 六、安装、调试阶段 ●项目经理跟踪项目执行和服务质量监控 ●相关现场人员对到场设备拆除包装上架 ●对现场环境进行复查检测,已确认符合安装规范要求 ●协同工作进行拓扑连接、上电验机 ●按客户规划要求和实施方案指导进行硬件、软件安装调试 ●项目组成员共同处理安装调试时发生的异常情况 ●责任人对实施、维护、使用及测试验收文档进行最终的完善 ●物流负责人对运输、拆箱安装现场环境进行清理和复原 七、初验、监控阶段 ●按照计划安排和认可的测试流程进行设备功能性测试 ●对测试中遇到的问题和故障进行处理 ●提交实施、维护、使用及测试验收文档 ●在监控期安排工程师职守随时处理问题 八、终验阶段 ●进行最终产品配置功能测试完成验收主要环节 ●对于实施、维护、使用及测试验收文档验证及及最后的修正 ●组织相关技术人员针对客户使用、维护等相关问题进行技术咨询解答 ●客服人员对项目组成员工作进行客户回访和满意度调查 ●项目经理对项目执行成本进度分析(内部)

F5负载均衡双机热备实施方案

F5双机热备实施说明 2012/12/4

一、项目拓扑图及说明 两台F5负载均衡设备采用旁挂的方式连接至交换机,设备地址和虚拟地址在服务器的内网地址段中划分;使用F5为认证应用服务器进行流量负载均衡。 二、设备信息及IP分配表 三、实施步骤及时间

3.1、F5设备加电测试 3.2、配置F5及F5双机,需2.5小时 3.3、测试F5双机切换,需0.5小时,这部分作为割接准备工作。3.4、先添加认证服务器单节点到F5设备192.168.100.150的虚拟服务中,在内网测试应用,需0.5小时 3.5、将应用服务器从双机模式更改为集群模式,将认证服务器两个节点添加到F5设备,这个时间取决于服务器模式更改的时间。 3.6、在防火墙上更改认证服务器的映射地址,将原来的地址更改为F5设备上的虚拟服务IP地址192.168.100.150 ,TCP 协议80端口。 四、回退方法 在外部网络不能访问认证服务时,回退的方法是在防火墙上把F5设备虚拟服务器192.168.100.150地址映射,更改为原单台认证服务器IP地址,将认证服务器集群模式退回双机模式。 五、F5设备配置步骤 5.1、设置负载均衡器管理网口地址 F5 BIG-IP 1600 设备的面板结构: BIG-IP 1600应用交换机具备四个10/100/1000M自适应的网络接口及二个光纤接口. 10/100/1000 interface — 4个10/100/1000 M 自适应的网络接口 Gigabit fiber interface — 2个1000M 多模光纤接口

Serial console port —一个串口命令行管理端口 Failover port —一个串口冗余状态判断端口。Mgmt interface —一个10/100M 管理端口 注:互为双机的两台BIG-IP必须用随机附带的Failover线相连起来。 BIG-IP上电开机以后,首先需要通过机器前面板右边的LCD旁的按键设置管理网口(设备前面板最左边的网络接口)的IP地址。管理网络接口有一个缺省的IP地址,一般为192.168.1.245。 注:管理网络接口的IP地址不能与业务网络在同一网段,根据业务网络的地址划分,相应的调整管理网络接口的网络地址。如果,在SMS中负载均衡口的external vlan和internal vlan 已经采用了192.168.1.0/24的网段,必须修改管理网口缺省的IP地址到另外一个网段。 通过LCD按键修改管理网口IP地址的方法如下: 1、按红色X按键进入Options选项; 2、在液晶面板上通过按键按以下顺序设置管理网口的网络地址: Options->System->IP Address/Netmask->Commit 如果通过LCD按键修改完IP地址以后,选择Commit,地址无法成功改变(例如出现IP地址为全零的情况),很有可能是管理口IP地址与系统内已经配置发生冲突。出现这种情况,关机重启以后,另选一个IP网段来设置管理网口地址。 警告:在设置好网络管理口地址以后,通过网络登陆到BIG-IP上进行其它配置更改时,都要保证网络管理口的网络连接完好。否则有时会出现修改的配置无法被成功加载应用的情况,因为网络管理口为Down的情况会妨碍配置文件的加载。 5.2、登录BIGIP的WEB管理界面 管理BIGIP有两种方式,一种是基于WEB的https管理方式,另一种是基于ssh的命令行管理方式。除特别配置外,采用WEB的管理方式即可。 WEB登录方式如下: 1.在管理员的IE地址栏内输入BIGIP设备的IP地址,https://192.168.1.245 2.回车后出现系统警告信息

机房服务器硬件配置方案

机房服务器硬件配置方案 一、入门级常规服务器硬配置方案: 硬件名称基本参数 奔腾E2160系列,LPGA封装,双核,工作功率65W,核心电压 1.25V,数量参考价CPU 内存 主板主频1800MHZ,总线频率800MHZ,倍频9,外频200MHZ,128M一 级缓存,1M二级缓存,指令集MMX/SSE/SSE2/SSE3/Sup-SSE3/EM64T111¥460¥135¥599Kingston DDRII 667 1G,采用PBGA封,频率667MHZ 采用Intel P965/ICH8芯片组,集成Realtek ALC 662声卡芯片,适用Core2 Extreme/Core 2 Quad/Core 2 Duo/奔腾4/赛扬D/PentiumD系列处理器。 前端总线频率FSB 1066MHz 硬盘台式机硬盘容量:160GB转速/分:7200转/分缓存(KB):8000KB接 口类型: Serial ATA接口速率: Serial ATA 300 机箱类型: xx飓风II机箱样式: 立式机箱结构: Micro ATX/ATX 3.51¥380机箱

光驱 散热器 UPS 稳压器 显示器 鼠标键盘英寸仓位:1个软驱仓位+6个硬盘仓位光驱仓位:4个产品电源: 金河田 355WB 3C 选配,普通DVD光驱 热器类型: CPU散热器散热方式: 风冷风扇转数(RPM):2200轴承类 型: 合金轴承适用范围: Intel LGA775 Conroe、Pentium D、Pentium4 Celeron D全系列最大风量(CFM):43CFM UPS电源类型: 后备式UPS额定输出容量: 0.5kva 选配

A10服务器负载均衡解决方案解读

1SJ tit works ***** 单位 A10负载均衡解决方案 A10 Networks Inc. 1SJ tit works

目录 1.项目概述 (1) 2.需求分析及讨论 (1) 2.1应用系统所面临的共性问题 (1) 2.2需求分析 (2) 3.A10公司负载均衡解决方案 (3) 3.1网络结构图 (3) 3.2A10负载均衡解决方案 (3) 3.2.1APP Server负载均衡的实现 (4) 3.2.2应用优化的实现 (4) 3.3解决方案说明 (5) 3.4方案的优点 (6) 4.A10 AX的优点及各型号指标总结 (7) 5.A10公司简介 (7) 6.AX介绍 (8) 6.1 A10公司AX简介 (8) AX系列功能 (8)

1. 项目概述 2. 需求分析及讨论 2.1应用系统所面临的共性问题 随着用户量增大及业务的发展,一个应用系统往往会出现各种问题。瓶颈可能出现在服务器、存储、网络设备,带宽等的性能不足,而运行一旦出现故障给业务带来的影响范围是巨大的,服务器可能出现的问题表现为如下几点: ?高可用问题 关健性应用要求7*24稳定运行不被中断,高可用性问题被放在首要位置。 ?利用“不平衡”现象 数据的大集中使得服务器的访问压力日益增大,服务器性能往往会成为一个系统的瓶颈,随着性能问题的产生,单点故障的发生也将比较频繁,为了解决这些问题,传统的方式多为采取更换更好的服务器并且采用双机备份系统提供服务的方式,这样必然存在 一半的资源浪费的情况,而在压力不断上升的情况下,这种动作讲不断的重复,不但服务器的利用率不平衡,而且持续引起投资的浪费。 ?“峰值”问题 服务器的处理多存在“波峰”和“波谷”的变化。而且“波峰”时,业务量大小的变化又不规律,这就使服务器不得不面对“峰值堵塞”问题。原有解决方法为增加服务器或主机数量,提高处理能力。但仍存在性能不平衡问题,且这样做,投资成本大。 ?多米诺”现象 单台服务器的设置,不可避免会出现“单点故障”,需要进行服务器“容错”。为实现容错,往往在主服务器旁安置一台或多台备份服务器。但这样做,平时只有一台服务器工作,其它服务器处于空闲状态,无法完全利用所有服务器的处理资源,当出现“峰值堵塞”时,“多米 诺”效应往往会发生,即所有服务器连续被“堵”至“死”。最终的结果将导致系统的瘫痪。 ?“扩展”不便 随着物理和应用的集中,服务器上所要处理的数据量(traffic )增大,客户交易产生

服务器配置方案

服务器配置方案本文转自:傲龙网络 在日常工作中,经常给客户进行硬件配置建议,发现很多客户基本的信息化基础的知识都不是太懂,比如服务器配置数选择和用户数关系等等。甚至很多IT专业人士,比如erp,crm顾问都不是很清楚。当然也有可能这些顾问只专注于他自己工作的那一块,认为这些是售前干的事情,不需要了解太多。在我看来我觉得多了解一些,碰到不懂的客户也可以给人家说个所以然出来,至少也没有什么坏处嘛。下面这篇文章也是平常的工作总结,贴出来给大家分享一下,也许还用的着。 第一章服务器选择 服务器选择和用户数关系

说明: 首选原则:在初期给客户提供硬件配置参考时,在线用户数建议按注册用户数(或工作站数量)的50%计算。 备用原则:根据企业的行业特点、用户使用频度、应用特点、硬件投入等综合因素考虑,在线用户数比例可以适当下调,由售前/销售人员在对客户的具体情况进行了解后做出适当的建议。 服务器推荐选择品牌:IBM、DELL(戴尔)、HP(惠普)、Sun 、Lenovo (联想)、浪潮、曙光等品牌机型。 CPU:如果因为选择不同品牌服务器或双核处理器导致CPU型号/主频变动,只要求达到同级别或该级别以上处理能力。

硬盘:对于硬盘方面,推荐选择SCSI硬盘,并做RAID5;对于小企业可以如果由于采购成本的考虑也可采用SATA。对于2000注册用户数以上企业,强烈推荐采用磁盘阵列。 硬盘容量=每用户分配容量×注册用户数+操作系统容量+部分冗余常见机型参考报价

由于IBM服务器在几个品牌的PC服务器系列中价格较高,如果报价是供客户做预算用,则可将该报价直接发给客户供参考,减少商务询价的工 作量。 硬件配置和相关型号可上网查询: IBM服务器 HP服务器 DELL服务器 SUN服务器 Lenovo(联想) 服务器选择和用户数关系在线计算 在IBM网站上有提供IBM Systems Workload Estimator工具可用于计算在各种应用和用户数规模下建议采用的服务器型号配置,配置结果提供 服务器型号、建议配置情况、可扩展性等信息。 以下为IBM Systems Workload Estimator工具计算结果,供参考: At peak, this system will have 1000 active mail clients. The calculations for this workload take into consideration a maximum of 60 percent utilization. Based on the type of client connection, this translates to 4000 effective clients. 即当前配置可支持1000在线用户,4000有效用户,服务器配置结果受录入的基本信息影响较大。 相关概念解释

直播服务器配置方案

直播服务器配置方案(一) 一、方案原理说明: 本套方案通过直播页面配置边缘服务器以适应直播会议的最大访问量,本地PC机通过Flash Media Encode软件把摄像头捕获的是视频流直接推送至源服务器(接收直播流并处理分发给边缘服务器的主服务器,客户端不访问该源服务器,所以 对该源服务器带宽要求不高,但是每个连接的客户端会有到源服务器的一个连接,因此对源服务器的资源配置要求会高些, 例如内存,CPU等);同时源服务器接收到直播流后会将直播流分发给边缘服务器(客户端访问边缘服务器,对边缘服务器 的带宽要求很高,但是对资源要求不高);在直播页面插入自己制作的FLASH播放器,FLASH播放器连接的服务器地址为边缘服务器地址IP,客户端通过播放器连接至不同的边缘服务器进行观看。 二、方案所需器材 1、Flash Media Encoder2.5编码软件,Flash Media Server3.5破解版 2、现场配置快速能连接Internet的PC机一台,安装Flash Media Encoder2.5编码软件及Flash Media Server3.5破解版; 3、录制直播流的摄像机或者摄像头一个; 4、源服务器一台,安装Flash Media Server3.5破解版,保持默认配置; 5、边缘服务器若干台,安装Flash Media Server3.5破解版,配置为边缘服务器; 三、方案图示说明 四、方案描述 会场通过连接PC机的摄像头拍摄直播视频,通过PC机的编码软件推送直播流至源服务器,源服务器分发数据流至各个边缘服务器; 直播网页嵌入自己制作的FLASH播放器(每个播放器编码源于获取不同的边缘服务器),用户访问直播页面,通过程序控制展示给客户不同的FLASH播放器,各个不同的FLASH播放器获取不同的边缘服务器数据流,从而达到用户流的分配至不同的边缘服务器,实现直播分发的需求。 五、架设步骤 1、准备内存、CPU配置较高,带宽可以稍低的服务器作为源服务器,源服务器安装Flash Media Server 3.5破解版软件,默 认配置保持不变,同时Media Server两个服务(Flash Media Administration Server,Flash Media Server (FMS))正常启动,软件能正常的使用;

负载均衡方案及详细配置

Apache+Tomcat+mod_jk实现负载均衡方案 一、概述: 原理图: 提高系统可用性,对系统性能影响较小。对于一台服务器Down机后,可自动切换到另 最少需要两台机器,Tomcat1 和Tomcat2可在同一台服务器上。若条件允许最好是各用一台服务器。 二、详细配置步骤: 1、Apache http Server安装 32位的按照提示操作即可。 64位系统的不是安装包。 64位安装配置: 以管理员身份运行cmd 执行:httpd -k install 若无法运行并提示配置错误,请先安装vcredist_x64.exe后再执行。 安装后在Testing httpd.conf...时会报错,不影响。 httpd -k start 启动Apache、httpd -k shutdown 停止Apache 、httpd -k restart重启测试Apache:

在IE中输入:127.0.0.1 打开网页显示It work就OK 2、将Mod_jk的压缩包解压,找到mod_jk.so 复制到Apache目录下modules目录下 64位的下载mod_jk1.2.30_x64.zip 32位的下载tomcat-connectors-1.2.35-windows-i386-httpd-2.0.x.zip 3、修改Apache conf目录下的httpd.conf文件 在最后增加:Include conf/extra/mod_jk.conf 4、在conf/extra 下创建mod_jk.conf文件 增加如下: #load module mod_jk.so LoadModule jk_module modules/mod_jk.so #mod_jk config #load workers JkWorkersFile conf/workers.properties #set log file JkLogFile logs/mod_jk.log #set log level JkLogLevel info #map to the status server #mount the status server JkMount /private/admin/mystatus mystatus JkMount /* balance 5.在conf目录下创建workers.properties文件 增加:worker.tomcat1 中的tomcat1和tomcat2必须和Tomcat中的配置相同。Tomcat配置下面介召 worker.list=balance,mystatus #first worker config worker.tomcat1.type=ajp13 worker.tomcat1.host=192.168.8.204 worker.tomcat1.port=8009 #Tomcat的监听端口 worker.tomcat1.lbfactor=1 worker.tomcat1.socket_timeout=30 worker.tomcat1.socket_keepalive=1 #second worker config worker.tomcat2.type=ajp13 worker.tomcat2.host=192.168.8.204 worker.tomcat2.port=8010 #Tomcat的监听端口实验是在同一机器上做的,所以两个不同

深信服智能DNS全局负载均衡解决方案

智能DNS全局负载均衡解决方案 ——深信服AD系列应用交付产品 背景介绍 在数据大集中的趋势下,多数组织机构都建立了统一运维的数据中心。考虑到单 一数据中心在遭遇到不抗拒的因素(如火灾、断电、地震)时,业务系统就很有 可能立即瘫痪,继而造成重大损失,因此很多具有前瞻性的组织机构都在建设多 数据中心以实现容灾。那么如何充分利用多个数据中心的资源才能避免资源浪 费?如何在一个数据出现故障时,将用户引导至正常的数据中心?在多个数据中 心都健康的情况下如何为用户选择最佳的数据中心? 问题分析 随着组织的规模扩大,用户群体和分支机构分布全国乃至全球,这一过程中组织对信息化应用系统的依赖性越来越强。对于企事业单位而言,要实现业务完整、快速的交付,关键在于如何在用户和应用之间构建的高可用性的访问途径。 跨运营商访问延迟-由于运营商之间的互连互通一直存在着瓶颈问题,企业在兴建应用服务器时,若只采用单一运营商的链路来发布业务应用,势必会造成其他运营商的用户接入访问非常缓慢。在互联网链路的稳定性日益重要的今天,通过部署多条运营商链路,有助于保证应用服务的可用性和可靠性。 多数据中心容灾-考虑到单数据中心伴随的业务中断风险,以及用户跨地域、跨运营商访问的速度问题,越来越多组织选择部署同城/异地多数据中心。借助多数据中心之间的冗余和就近接入机制,以保障关键业务系统的快速、持续、稳定的运行。

深信服解决方案 智能DNS全局负载均衡解决方案,旨在通过同步多台深信服AD系列应用交付设备,以唯一域名的方式将多个数据中心对外发布出去,并根据灵活的负载策略为访问用户选择最佳的数据中心入口。 用户就近访问 ④支持静态和动态两种就近性判断方法,保障用户在访问资源时被引导至最合适的数据中心 ④通过对用户到各站点之间的距离、延时、以及当前数据中心的负荷等众多因素进行分析判断 ④内置实时更新的全球IP地址库,进一步提高用户请求就近分配的准确性,避免遭遇跨运营商访问 站点健康检查 ④对所有数据中心发布的虚拟服务进行监控,全面检查虚拟服务在IP、TCP、UDP、应用和内容等所有协议 层上的工作状态 ④实时监控各个数据中心的运行状况,及时发现故障站点,并相应地将后续的用户访问请求都调度到其他的 健康的数据中心 入站流量管理 ④支持轮询、加权轮询、首个可用、哈希、加权最小连接、加权最少流量、动态就近性、静态就近性等多种 负载均衡算法,为用户访问提供灵活的入站链路调度机制 ④一旦某条链路中断仍可通过其它链路提供访问接入,实现数据中心的多条出口链路冗余 方案价值 ④合理地调度来自不同用户的入站访问,提升对外发布应用系统的稳定性和用户访问体验 ④多个数据中心之间形成站点冗余,保障业务的高可用性,并提升各站点的资源利用率 ④充分利用多条运营商链路带来的可靠性保障,提升用户访问的稳定性和持续性

相关文档
最新文档