双机热备+负载均衡 线上方案
交换机双机热备方案

交换机双机热备方案概述在网络通信中,交换机是起到数据转发和接入端设备的重要角色。
为了确保网络的可靠性和稳定性,采用交换机双机热备方案可以提供高可用性和冗余保证,一旦其中一个交换机发生故障,另一个可以无缝接替其工作,确保网络的持续运行。
本文将介绍交换机双机热备方案的基本原理、实施过程和相关配置。
同时,还将讨论该方案的优缺点和适用场景。
基本原理交换机双机热备方案是通过配置两台交换机进行冗余和备份,实现高可用性的网络架构。
其中一台交换机担任主交换机的角色,负责数据转发和网络管理,另一台交换机担任备份交换机的角色,只有在主交换机故障时才接管其功能。
主要的原理有以下几点:1.心跳检测:主备交换机之间通过心跳检测来确保彼此的存活状态。
当主交换机故障时,备份交换机能够探测到主交换机的失效,从而触发故障切换。
2.数据同步:主备交换机之间通过数据同步来保持状态一致性。
备份交换机会周期性地从主交换机同步配置信息和网络状态,以便在故障时提供无缝切换。
3.快速切换:当主交换机故障时,备份交换机会迅速接管其功能,并通过更新网络信息来确保数据的顺利传输。
这个过程一般在数秒钟内完成,用户几乎无感知。
实施过程第一步:选购适合的交换机在实施交换机双机热备方案之前,首先需要选购适合的交换机设备。
一般情况下,厂商会提供特定的双机热备方案支持,需要确保所选交换机支持该方案并符合实际需求。
当然还要考虑交换机的性能、端口数量、扩展性和价格等方面。
第二步:配置主备交换机1.连接交换机:将主备交换机通过双向链路连接,确保可以进行心跳检测和数据同步。
2.配置主交换机:在主交换机上配置基本网络参数、VLAN、ACL等功能。
同时,需要启动交换机双机热备方案并指定备份交换机的IP地址。
3.配置备交换机:在备份交换机上同样配置基本网络参数、VLAN、ACL等功能,但不需要启动交换机双机热备方案。
4.启动主备关系:在主交换机上启动交换机双机热备方案,并指定备份交换机的IP地址。
服务器双机热备解决方案

服务器双机热备解决方案前言数据信息是当今社会进步、发展的关键。
面对日益庞大的计算机网络,用户的要求是网络能够可靠、高速、稳定地运行。
当前大部分网络服务都是采用中心服务器的模式(只有一台服务器),服务器的高可靠性、高可用性是网络安全运行的关键,一旦服务器出现故障,所提供的服务就会被中断,影响正常工作,并可能丢失关键数据,从而造成严重后果。
无论对企业的有形和无形资产都带来不必要的损失。
如何在故障情况下尽快恢复使用并保证数据的安全,已经成为一个日渐突出的问题。
服务器双机热备份技术正是解决由软硬件故障引起可靠性降低的有效措施,该技术较为成熟,成本相对较低,具有安装维护简单、稳定可靠、监测直观等优点,在网络保障中获得了广泛的应用。
一、双机热备阐述什么是双机热备所谓双机热备份,概况地说,就是用网络两台服务器连接起来,平时互相备份,共同执行同一服务。
当一台服务器停机时,可以由双机中的另一台服务器自动将停机服务器的业务接管,从而在不需要人工干预的情况下,保证系统能持续提供服务。
什么时候需要双机热备呢一般服务器要长年累月(7 X 24 小时)不间断工作,其备份工作就绝对少不了。
所以,决定是否使用双机热备,应首先对系统的重要性,以及终端用户对服务中断的容忍程度进行考虑,然后再来决定是否使用双机热备。
比如网络中的用户最多能容忍多长时间恢复服务如果服务不能很快恢复会造成什么样的后果等等。
二、双机热备拓扑图以及工作原理双机热备工作示意图三、双机热备方案介绍在高可用性方案中,操作系统和应用程序是安装在两台服务器的本地系统盘上的,而整个网络系统的数据是通过磁盘阵列集中管理和数据备份的。
数据的集中管理是通过双机热备份系统,将所有站点的数据直接从中央存储设备来读取和存储,并由专业人员进行管理,极大地保护了数据的安全性和保密性。
用户的数据存放在外接共享磁盘阵列中,在一台服务器出现故障时,备机主动替代主机工作,保证网络服务不间断。
双机热备份系统采用“心跳”方法保证主系统与备用系统的联系。
双机热备高可用解决方案

双机热备高可用解决方案双机热备高可用解决方案是一种常见的应用服务器高可用性方案,通过将两台服务器配置为主备关系,主服务器负责正常的应用服务处理,备服务器则处于备用状态,随时准备接管主服务器的工作,以确保系统的稳定性和可用性。
以下是一个典型的双机热备高可用解决方案的构建过程,包括网络配置、数据同步、故障检测和切换机制:1.网络配置:将两台服务器连接到同一个局域网中,并配置相应的IP地址和子网掩码,确保彼此可以相互通信,建立心跳通道用于主备服务器之间的通信。
2.数据同步:在双机热备方案中,主服务器会不断处理应用请求并生成数据,备服务器需要及时同步主服务器的数据以保持数据的一致性。
这可以通过异步数据同步、基于共享存储的数据复制或者数据库复制等方式实现。
3.故障检测:为了及时检测主服务器的状态,可以使用心跳检测机制。
主服务器会周期性地向备服务器发送心跳信号,如果备服务器在一定时间内没有收到主服务器的心跳信号,就会判断主服务器发生了故障。
4.切换机制:当备服务器检测到主服务器故障后,会通过切换机制将自己转为主服务器继续处理应用请求,以确保系统的可用性。
切换机制可以通过改变DNS解析、负载均衡器配置或者通过共享存储等方式实现。
5.故障恢复:一旦主服务器恢复正常,可以通过自动或者手动的方式将主服务器重新接管应用服务,备服务器恢复备用状态。
此外,为了进一步提高系统的可用性1.冗余配置:可以通过增加更多的备服务器来提高系统的冗余度,从而进一步减少系统故障的影响。
2.负载均衡:通过引入负载均衡器来分发应用请求,可以将请求在主备服务器之间平衡分配,减轻服务器的负载。
3.监控和报警:设置监控系统来实时监测服务器的状态,以及时发现并解决潜在的问题。
总结起来,双机热备高可用解决方案是一种常见且有效的应用服务器高可用性方案,通过主备服务器的配置、网络设置、数据同步、故障检测和切换机制等措施,可以提高系统的稳定性和可用性,保证应用服务的连续性和用户体验。
服务器双机热备方案(二)2024

服务器双机热备方案(二)引言概述:服务器双机热备方案旨在确保服务器系统的高可用性和容错性。
本文将重点介绍一种有效的服务器双机热备方案(二)的实施细节,该方案通过采用主备切换、故障检测和数据同步等关键功能,提供了服务器系统在发生故障时的无缝切换和数据保护能力。
正文内容:1. 主备切换功能- 实现主机与备机之间的自动切换,并在主机故障时快速将备机接管。
- 采用心跳检测机制,及时探测主机状态,以确保主备机状态同步。
- 利用负载均衡技术,使流量在主备机之间平衡分担,提高系统的整体性能。
2. 故障检测功能- 使用故障检测模块监控服务器状态,包括硬件故障、网络故障等。
- 实时检测服务器运行状态,并将故障信息报警通知管理员。
- 根据故障情况执行相应的处理策略,如自动切换到备机、重启服务器等。
3. 数据同步功能- 使用数据同步机制确保主备机之间的数据实时同步。
- 利用增量同步技术,减少数据传输量和同步时间。
- 设计数据冲突解决方案,保证数据的一致性和完整性。
4. 灾难恢复功能- 配置灾难恢复模块以应对重大故障和灾难事件。
- 建立灾难恢复计划,包括数据备份、灾难恢复演练等环节。
- 针对不同灾难情况制定灵活有效的应急措施,最大限度地减少系统故障带来的影响。
5. 性能优化功能- 优化服务器配置,提升系统性能,包括硬件配置、网络优化等方面。
- 针对性能瓶颈进行深入分析和优化,提高系统的响应速度和吞吐量。
- 使用监控工具实时监测服务器性能,并根据监控结果进行优化调整。
总结:通过实施服务器双机热备方案(二),可以确保服务器系统具备高可用性和容错性。
主备切换功能、故障检测功能、数据同步功能、灾难恢复功能和性能优化功能的综合应用,使得服务器系统在故障发生时能够迅速实现自动切换,并提供数据保护和灾难恢复能力。
不仅如此,通过性能优化功能的实施,服务器系统还能提供更好的性能表现,为用户提供更好的服务体验。
服务器双机热备方案(一)2024

服务器双机热备方案(一)引言概述:服务器双机热备方案是一种保证服务器高可用性和数据安全性的重要解决方案。
通过设置双机热备系统,可以在一台服务器发生故障时,快速切换到另一台正常运行的备用服务器,从而避免服务器宕机带来的数据丢失和业务中断问题。
本文将介绍服务器双机热备方案的基本原理和具体实施步骤。
正文内容:1. 负载均衡与故障切换1.1 负载均衡的概念与作用1.2 双机热备系统中的负载均衡策略1.3 故障切换的触发条件与机制1.4 双机热备系统中的关键参数与性能优化1.5 负载均衡与故障切换的实施案例分析2. 数据同步与一致性2.1 数据同步的基本原理与方法2.2 双机热备系统中的数据同步机制2.3 数据一致性保证的技术手段2.4 数据同步与一致性的优化与实现2.5 数据同步与一致性问题的解决案例分享3. 故障监测与恢复3.1 故障监测的主要指标和方式3.2 双机热备系统中的故障检测策略3.3 快速故障恢复的关键技术与工具3.4 故障监测与恢复的效率与可靠性优化3.5 故障监测与恢复的典型案例分析4. 安全性和数据保护4.1 安全性在双机热备系统中的重要性4.2 数据保护的核心原则和方法4.3 双机热备系统中的数据加密与密钥管理4.4 安全审计和监控的实施策略4.5 安全性和数据保护实践案例分享5. 双机热备方案的实施与管理5.1 双机热备方案的规划与设计5.2 硬件设备和软件工具的选择与配置5.3 双机热备系统的部署和测试5.4 系统运行监控和维护管理5.5 双机热备方案的持续优化和升级总结:通过引入服务器双机热备方案,可以有效提高服务器的可用性和可靠性,保护数据的安全性,并减少业务中断时间。
在实施双机热备方案时,负载均衡与故障切换、数据同步与一致性、故障监测与恢复、安全性和数据保护以及实施与管理等方面都需要进行综合考虑和有效实施。
只有在不断优化和升级的基础上,双机热备系统才能实现更高效、更可靠的运行。
双机热备+负载均衡线上方案(Heartbeat+DRBD+NFS+Keepalived+Lnmp)

/thread-3689681-1-1.html我们下面来实现一个架构,heartbeat+drbd+nfs实现mysql和网站数据的同步,keepalived 实现nginx的高可用,而用nginx和dns轮询实现负载均衡。
架构说明目录规划/usr/local/src/lnmp:用来存放源码工具等等/data:用来存放所有数据和NFS以及DRBD的挂载/data/shell:用来存放所有管理脚本/data/mysql:用来挂载DRBD的mysql资源,以供mysql存放数据库/data/wwwnfs:用来挂载DRBD生成的www资源,以供两个节点挂载到各个节点的/data/www 目录,以供论坛等程序数据使用/data/www:用来挂载NFS资源,用来存放论坛(网站)等程序数据拓扑工作原理内网:1,DRBD网络存储创建出两个资源,一个mysql给mysql数据库同步用,一个www给web(论坛)数据NFS共享挂载用,虚拟出两个虚拟IP,一个是 192.168.1.100,用来连接数据库,一个是192.168.1.200,用来给节点挂载NFS注意:NFS底下挂载了三次:DRBD挂载一次,文件系统挂载一次,客户端挂载一次2,Heartbeat来实现DRBD的HA,同时虚拟出两个内网IP,并管理NFS,MySQL的启动和关闭外网:1,两个节点都用Nginx做均衡器,通过内网调度负载两个节点,实现内部均衡2,DNS配置双IP对应一个域名的方式来实现DNS轮询,实现外网均衡3,Keepalived使用双主(master)配置虚拟出两个虚拟IP:节点一 12.12.12.100和节点二12.12.12.200,同时共外网访问,两个节点互为主从关系,当某个节点挂掉的时候,另外一个节点将同时是两个资源的master,同时拥有两个虚拟IP,实现资源转移。
我们知道DNS的缺点就是生效慢,分配资源不合理,理论上有可能把所有的请求都发送给同一节点,导致均衡不合理导致所有资源不可用,这里我们由于有了NGINX内部负载,就不怕DNS轮询不均衡了,因为NGINX内部有严谨的调度方式,不管那台请求有多少,在内部都能实现理想的调度,这样就能把 DNS负载均衡和NGINX完美结合,是硬件资源得到合理的利用,然后利用keepalive保证了每个节点的可靠性,几乎完美!拓扑图如下:架构实现LNMP架构配置配置LNMp架构需要注意两点:注意一:这里MYSQL都不要初始化,不要启动!后面有专门的配置的注意二:nginx所有端口都改成 8080,因为一会还要安装nginx来做均衡器并对外提供服务,所以不要用默认的80注意三、nginx和php-fpm运行的用户都是www。
服务器双机热备方案

服务器双机热备方案一、概述随着企业业务的快速发展,数据安全和业务连续性变得越来越重要。
服务器双机热备方案是一种有效的策略,用于确保数据的可靠性和业务的持续性。
这种方案通过在两台服务器之间实时备份数据,确保即使在一台服务器发生故障时,另一台服务器也能接管业务,维持业务的正常运行。
二、方案介绍服务器双机热备方案的核心是两台服务器同时运行,并共享一份或多个数据副本。
当一台服务器发生故障时,另一台服务器可以接管业务,并继续处理数据请求。
这种方案包括以下几种关键技术:1、磁盘阵列(RAID):通过将多个硬盘组合成一个逻辑单元,提供数据冗余和容错功能。
在RAID中,数据会分布在多个硬盘上,如果一个硬盘发生故障,其他硬盘上的数据可以继续提供服务。
2、心跳监测:两台服务器之间通过心跳监测机制保持实时通信。
当一台服务器发生故障时,另一台服务器可以立即检测到,并接管业务。
3、数据库复制:对于数据库应用,可以通过数据库复制技术实现双机热备。
主服务器上的数据库更改会自动复制到从服务器的数据库中。
当主服务器发生故障时,从服务器可以接管数据库服务。
4、负载均衡:通过负载均衡器,可以将请求分发到两台服务器上,平衡负载,提高系统的整体性能。
三、实施步骤实施服务器双机热备方案需要遵循以下步骤:1、硬件准备:准备两台性能相当的服务器,安装必要的硬件和软件。
2、配置RAID:根据业务需求配置适当的RAID级别,提供数据冗余和容错功能。
3、安装心跳监测软件:在两台服务器上安装心跳监测软件,确保它们能够实时通信。
4、配置数据库复制:对于数据库应用,配置数据库复制软件,确保数据在两台服务器之间同步。
5、配置负载均衡器:安装负载均衡器,将请求分发到两台服务器上,平衡负载。
6、测试与调试:在正常业务运行前,进行全面的测试和调试,确保双机热备方案的正常运行。
7、监控与维护:定期监控双机热备方案的运行状态,及时发现和处理问题,确保数据的可靠性和业务的持续性。
深信服负载均衡主备双机配置

深信服负载均衡主备双机一、主备双机配置界面主备』设置双机热备功能。
界面如下图所示:名称』自定义设备的名称,方便区分当前哪台设备处于主模式。
状态』中[启用]用来启用双机,[禁用]用来禁用双机。
『超时时间』当在超时时间内备机一直无法收到主机发送的心跳包,则认为主机超时,备机主动切换成主机。
『通信介质』选择连接双机的接口,可以用串口和空闲的网口。
选择网口后,需要为该网□配置一个IP地址,只要不与正在使用的IP地址冲突即可。
建议选择网□作为通信介质,通过网口来做双机切换比串口切换花费的时间短。
通信介质选择网口,则可以实现会话同步。
『MAC同步』用于设置双机切换是否同步MAC地址。
『同步网□列表』用于设置切换双机的时候同步哪些接□的MAC地址,需要开启MAC同步才会显示该选项。
『通信介质故障检测』通过网络数据包来检测对端是否存在,避免两台设备成为主机导致IP冲突。
两台设备的通信介质故障检测网□需要接到同一个广播域,可以选择已经使用的网□,也可以选择空闲网□,选择空闲网□需要设置IP地址。
界面如下:同步配置』点击向备机同步配置。
故障切换』用于设置双机切换条件,符合此处设置的条件则进行主备切换,界面如下:『状态』用于设置是否启用双机故障切换检测,『检测类型』分为『掉线检测』、『ARP检测』、『健康检查』3种,设置后点击添加可以组合使用多种检测方法,[删除可以取消选中的检测方法。
『掉线检测』当检测到网口物理状态不正常则进行切换。
『ARP检测』AD设备向选择的接□发送ARP广播,如果监视主机里填写的IP地址有回应ARP,则判断正常。
该监视主机地址需要填写与AD设备接□同一网段的地址。
界面如下:『健康检查』通过网络接□处设置的链路健康检查机制来检测,当选择健康检查后,只有启用了链路健康检查的链路才可选,界面如下:故晖切换状态检刪类型 检测列克切换条件主备状态』分为“主机”、“备机”,可通过右边的切换按钮进行主备切换。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
双机热备+负载均衡线上方案(Heartbeat+DRBD+NFS+Keepalived+Lnmp)gotop对于网站服务器来说,可靠性之重要不用我多说,但要想做到可靠性一般需要昂贵的设备,这里最主要是就是数据同步用的共享磁盘了,磁盘柜+磁盘一共下来是20多万,这对于追求最高性价比的双机负载热备方案来说是极其不靠谱的,尤其是中小型企业,私有企业,一般经理是不会考虑这么高的成本的。
我们通常做都是四台服务器+一个磁盘柜子+千兆交换机,那么这个成本下来将近30万了,而且这个方案有个弊端就是存储依然存在单点故障,除非使用双控制+双电源+双主板设计的磁盘柜,但这种成本实在太高。
那是否有更为廉价的双机方案呢,很明显开源软件帮我们解决了成本问题!!!用Heartbeat+DRBD+NFS+Keepalived+Lnmp等开源软件实现双机负载热备架构只需要两台服务器+一台全千兆交换机,这个成本是极其低廉的,我们做运维了就是要用技术来压榨硬件性能,用最低的成本实现最高的效能,不然天天谈论的性能优化有何用?堆叠硬件不是更好?那不是我们的目的,下面我们来看看这两台服务器的双机热备+负载均衡是如何实现并且稳定运行的。
这个方案是我给一个论坛做的,论坛15分钟在线8000人,以前放在IIS里面,并发连接6000-7000左右,我给设计的双机热备方案如下图:图一注意:第三台服务器可要可不要,我这里他由于成本问题,并没有采用第三台服务器,而是一共只有两台系统环境配置一,硬件配置:节点一(centosa):做主负载点,和主数据库压力负载点,必须高性能高稳定高I/O配置如下:CPU:双CPU( 4核+4核) 5405级别内存:8G 组三通道DDR3 ECC内存硬盘:1块1TB普通硬盘+2块300G SAS15K(15000转)硬盘网卡:2块千兆网卡节点二(centosb):做分担负载和备服务器,稳定第一CPU:双CPU( 4核+4核) 5405内存:8G 组三通道DDR3 ECC内存硬盘:1块1TB普通硬盘+3块300G SAS15K(15000转)硬盘网卡:2块千兆网卡注意:网卡极力建议用四块,这个架构对网络I/O要求极高,我这里只有两块,没办法,机房做不到,如果你是百兆交换机,拜托,你一定要用四块网卡二,操作系统配置1),所有服务器的操作系统版本:操作系统版本:CentOS5.7 64位操作系统官方下载地址:/centos/5/isos/x86_64/ 2),每台服务器的安装要求:节点一:分区:一共三块硬盘,不用组RAID第一块硬盘:系统占用一块,分区情况如下:/boot 200MB/ 40GBswap交换分区 8GB/data 第一块硬盘的所有剩余空间第二块硬盘:不要分区,留给我自己分区第三块硬盘:不要分区,留给我自己分区系统安装安装规范最小化安装,字符界面安装去掉所有组件,只需要一个内核节点二:分区:一共三块硬盘,不用组RAID 第一块硬盘:系统占用一块,分区情况如下:/boot 500MB/ 40GBswap交换分区 16GB/data 第一块硬盘的所有剩余空间第二块硬盘:不要分区,留给我自己分区第三块硬盘:不要分区,留给我自己分区系统安装要求最小化安装,字符界面安装去掉所有组件,只需要一个内核三,交换机配置:注意:有条件最好用两台交换机,内网一台,外网一台如果只有一台交换机,划分两个VLAN,一个外网使用,一个内网使用四,目录规划用途/usr/local/src/lnmp:用来存放源码工具等等/data:用来存放所有数据和NFS以及DRBD的挂载/data/shell:用来存放所有管理脚本/data/mysql:用来挂载DRBD的mysql资源,以供mysql存放数据库/data/wwwnfs:用来挂载DRBD生成的www资源,以供两个节点挂载到各个节点的/data/www目录,以供论坛等程序数据使用/data/www:用来挂载NFS资源,用来存放论坛(网站)等程序数据双机热备+负载均衡具体配置一,先建立用户和目录吧:useradd -s /sbin/nologin wwwuseradd -s /sbin/nologin mysqlmkdir -p /data/mysqlmkdir -p /data/wwwmkdir -p /data/wwwnfsmkdir -p /data/shell二,架构详解如果用LVS做均衡器拓扑图如下:图二如果用Nginx做均衡器拓扑图如下:图三我们这里用NGINX做均衡器,因此我用图三来拓扑,来讲讲这个拓扑的工作原理内网:1,DRBD网络存储创建出两个资源,一个mysql给mysql数据库同步用,一个www给web(论坛)数据NFS共享挂载用,虚拟出两个虚拟IP,一个是192.168.1.100,用来连接数据库,一个是192.168.1.200,用来给节点挂载NFS注意:NFS底下挂载了三次:DRBD挂载一次,文件系统挂载一次,客户端挂载一次2,Heartbeat来实现DRBD的HA,同时虚拟出两个内网IP,并管理NFS,MySQL的启动和关闭外网:1,两个节点都用Nginx做均衡器,通过内网调度负载两个节点,实现内部均衡2,DNS配置双IP对应一个域名的方式来实现DNS轮询,实现外网均衡3,Keepalived使用双主(master)配置虚拟出两个虚拟IP:节点一12.12.12.100和节点二12.12.12.200,同时共外网访问,两个节点互为主从关系,当某个节点挂掉的时候,另外一个节点将同时是两个资源的master,同时拥有两个虚拟IP,实现资源转移我们知道DNS的缺点就是生效慢,分配资源不合理,理论上有可能把所有的请求都发送给同一节点,导致均衡不合理导致所有资源不可用,这里我们由于有了NGINX内部负载,就不怕DNS轮询不均衡了,因为NGINX内部有严谨的调度方式,不管那台请求有多少,在内部都能实现理想的调度,这样就能把DNS负载均衡和NGINX完美结合,是硬件资源得到合理的利用,然后利用keepalive保证了每个节点的可靠性,几乎完美!三,LNMP架构配置两台服务器的一样配置这个我请看我发的这个帖子:/thread-2-1-1.html注意一:这里MYSQL都不要初始化,不要启动!后面有专门的配置的注意二:nginx所有端口都改成8080,因为一会还要安装nginx来做均衡器并对外提供服务,所以不要用默认的80四,安装配置NFS兵马未动粮草先行,NFS是网站存放数据实现数据同步的基础,我们先安装上吧1,安装:服务器端要安装:nfs-utils:NFS主程序portmap:RPC主程序客户端要安装:nfs-utils:NFS主程序portmap:RPC主程序由于我们这里一共只用了两台服务器,所以,这里客户端和服务器段是同一台机器,这点要注意了两个节点同时安装:1.yum -y install portmap nfs-utils复制代码2,配置:生存共享目录vi /etc/exports输入:1./data/wwwnfs 192.168.1.0/24(rw,sync,anonuid=501,anongid=501)复制代码注意:/data/wwwnfs:就是给两个节点挂载的目录,所有网站程序都放在这里,实现论坛程序等数据的共享(同步)anonuid=501,anongid=501:这个表示客户端上任何用户进入到挂载目录都以uid=501和gid=501身份,我这里这个代表的是www用户3,启动:service portmap startservice nfs start切忌,必须先启动portmapchkconfig --level 0123456 nfs offchkconfig --level 0123456 portmap on注意:portmap服务器必须常驻,且不收heartbeat管理;而nfs这必须要用heartbeat来管理他的启动和关闭,所以这里要关闭nfs开机自动启动同时要启动锁机制,因为同时有两个节点要使用同一份数据,所以需要有总裁,这个尤其是在NFS给mysql用的时候是必须要用的,对于论坛或网站,要看情况,如果存在对同一文件同时修改的时候必须要启动NFS锁机制,如果没有这种情况,那么建议不要启动,启动了会降低NFS的性能:/sbin/rpc.lockdecho "/sbin/rpc.lockd" /etc/rc.local4,建立NFS的管理脚本有人奇怪了,nfs用RPM安装的,应该直接用service nfs start/stop即可啊,维护还要建立脚本呢,这里由于NFS的启动关闭权要交给heartbeat处理,而默认/etc/init.d/nfs这个启动脚本在heartbeat处理的时候有问题,所以这里自己建立了一个vi nfs输入:1.#!/bin/bash2.3.NFSD=/etc/rc.d/init.d/nfs4.NFSDPID=`/sbin/pidof nfsd`5.case $1 in6.start)7.$NFSD start;8.;;9.stop)10.$NFSD stop;11. if [ "$NFSDPID" != " " ];then12.for NFSPID in $NFSDPID13.do /bin/kill -9 $NFSPID;14.done15. fi16.;;17.*)18.echo "Syntax incorrect. You need one of {start|stop }"19.;;20.esac复制代码wq保存退出chmod +x nfsOK,NFS服务器端配置完毕。
注意如果你用的是四台服务器或者更多,把均衡器和节点分开的,那么还需要在节点也就是NFS的客户端安装:1.yum -y install portmap nfs-utils复制代码并且启动portmapservice portmap startchkconfig --level 35 portmap on注意,客户端必须要启动portmap,且要安装nfs-utils,但不需要启动NFS我们这里均衡器和节点都在同一台服务器上,所以就免去了这些过程了,不过他同时是客户端,所以要建立挂载脚本vi /data/shell/mountnfs.sh输入:1./bin/mount -t nfs -onosuid,noexec,nodev,rw,nouser,noauto,bg,hard,nointr,rsize=32k,wsize=32k,tcp 192.168.10.200:/data/wwwnfs /data/www复制代码chmod +x /data/shell/mountnfs.shecho "/data/shell/mountnfs.sh" /etc/rc.local在另外一台节点centosb上也这样安装五,安装配置DRBD1,分区DRBD可用设备有如下:(1)一个磁盘,或者是磁盘的某一个分区(2)一个soft raid 设备(3)一个LVM的逻辑卷(4)一个EVMS(Enterprise Volume Management System,企业卷管理系统)的卷(5)其他任何的块设备这里我是建立在一个分区上的查看磁盘信息:1.fdisk -l复制代码Disk /dev/sda: 1000.2 GB, 1000204886016 bytes255 heads, 63 sectors/track, 121601 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytesDevice Boot Start End Blocks Id System/dev/sda1 * 1 64 514048+ 83 Linux/dev/sda2 65 5163 40957717+ 83 Linux/dev/sda3 5164 7203 16386300 82 Linux swap / Solaris /dev/sda4 7204 121601 918901935 5 Extended/dev/sda5 7204 121601 918901903+ 83 LinuxDisk /dev/sdb: 300.0 GB, 300069052416 bytes255 heads, 63 sectors/track, 36481 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytesDevice Boot Start End Blocks Id SystemDisk /dev/sdc: 300.0 GB, 300069052416 bytes255 heads, 63 sectors/track, 36481 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytesDevice Boot Start End Blocks Id System三块磁盘:一块1TB已经分区,安装了操作系统和存放数据另外两块没有分区,特用来给DRBD用下面分区:fdisk /dev/sdb......fdisk /dev/sdc......分区好后我们得到两个未挂载的分区/dev/sdb1 1 36481 293033601 83 Linux /dev/sdc1 1 36481 293033601 83 Linux/dev/sdb1用于数据库/dev/sdc1用于NFS注意:先不要挂载2,安装DRBD1),下载DRBD官方网站:/DRBD源码下载地址: /drbd2),安装DRBD有三种安装模式:RPM包安装,直接编译进内核或作为一个可加载的内核模块编译。