Linux负载均衡的设置步骤

合集下载

负载均衡_应用实验报告

负载均衡_应用实验报告

一、实验背景随着互联网的快速发展,网站和应用程序的用户量急剧增加,对服务器性能和可靠性的要求也越来越高。

负载均衡技术作为一种有效的资源分配策略,能够将用户请求分配到多个服务器上,从而提高系统的处理能力和响应速度。

本实验旨在通过搭建负载均衡环境,验证不同负载均衡策略对系统性能的影响,并分析其适用场景。

二、实验环境1. 操作系统:Linux CentOS 7.42. 服务器:2台物理服务器(Intel Xeon CPU E5-2680 v3,16GB内存)3. 负载均衡器:Nginx4. 被均衡服务器:Tomcat 8.55. 实验工具:Apache JMeter三、实验目的1. 熟悉负载均衡器的配置和操作。

2. 掌握常见的负载均衡策略,如轮询、加权轮询、最少活跃调用等。

3. 分析不同负载均衡策略对系统性能的影响。

4. 评估负载均衡技术在实际应用中的适用性。

四、实验步骤1. 配置负载均衡器(1)安装Nginx:```yum install nginx```(2)配置Nginx负载均衡:```server {listen 80;server_name localhost;location / {proxy_pass http://backend; include proxy_params;}}upstream backend {server server1:80;server server2:80;# 添加加权轮询策略server server1:80 weight=2;server server2:80 weight=1;}```2. 部署被均衡服务器(1)安装Tomcat 8.5:```yum install tomcat8```(2)配置Tomcat:```cat >> /usr/local/tomcat8/conf/server.xml << EOF<Connector port="8080" protocol="HTTP/1.1"connectionTimeout="20000"redirectPort="8443" />EOF```3. 运行Apache JMeter进行压力测试(1)创建测试计划:- 选择“线程组”作为测试计划- 设置线程数和循环次数- 选择“HTTP请求”作为请求类型- 设置请求的URL为“http://localhost/”(2)启动JMeter,观察结果五、实验结果与分析1. 轮询策略在轮询策略下,两个服务器接收到的请求数量基本相同。

负载均衡配置方法

负载均衡配置方法

负载均衡配置方法在现代的计算机系统中,负载均衡是保证高性能和可靠性的重要因素之一。

通过合理的负载均衡配置,可以最大程度地利用系统资源,提高系统响应速度和可扩展性。

本文将介绍一些常见的负载均衡配置方法,帮助您更好地理解和应用负载均衡技术。

一、负载均衡概述负载均衡是一种通过在多个服务器之间分配工作负载,以达到提高系统性能和可用性的技术。

它可以确保每台服务器都能够平均分担任务,避免单个服务器过载,从而提高系统的整体性能。

二、硬件负载均衡配置方法硬件负载均衡通常通过专门的硬件设备来实现,如负载均衡器。

以下是一些常用的硬件负载均衡配置方法:1. 服务器冗余:在配置硬件负载均衡之前,建议先将系统中的服务器设置为冗余模式。

这意味着将每个功能模块配置为备份模式,以确保在故障发生时可以无缝切换到备份服务器。

2. 负载均衡器选择:根据实际需求选择适当的负载均衡器。

常见的负载均衡器有硬件负载均衡器和软件负载均衡器。

硬件负载均衡器通常具有更高的性能和可靠性,但价格较高。

软件负载均衡器则更加灵活和经济实惠。

3. 负载均衡算法选择:负载均衡器通常使用一些算法来决定如何将任务分配给服务器。

常见的算法有轮询、最小连接和最少响应时间等。

根据应用场景的特点选择合适的负载均衡算法,以确保任务能够平均分配给服务器,并提高整体性能。

4. 健康检查和故障恢复:负载均衡器通常会周期性地检查服务器的健康状态,以便及时发现故障和性能问题。

一旦发现故障,负载均衡器将自动将任务重新分配给其他正常工作的服务器,并通过故障恢复机制尽快恢复故障服务器的功能。

三、软件负载均衡配置方法除了硬件负载均衡器,还可以使用软件来实现负载均衡。

以下是一些常用的软件负载均衡配置方法:1. 反向代理:通过将负载均衡器配置为反向代理服务器,可以将客户端的请求分发给多个后端服务器。

反向代理服务器可以根据不同的策略选择请求目标服务器,并将响应返回给客户端。

2. DNS负载均衡:通过在DNS服务器中配置多个IP地址,可以将客户端的请求平均分配给这些IP地址,并最终分发到不同的服务器。

服务器负载均衡方案

服务器负载均衡方案

服务器负载均衡方案第1篇服务器负载均衡方案一、背景随着互联网的迅速发展,业务量不断攀升,服务器承受的压力越来越大。

为保障业务连续性和用户体验,提高服务器资源利用率,降低单点故障风险,有必要引入服务器负载均衡技术。

本方案旨在制定一套合法合规的服务器负载均衡方案,确保业务稳定、高效运行。

二、目标1. 提高服务器资源利用率,降低硬件投资成本。

2. 确保业务连续性,提高系统可用性。

3. 提升用户体验,降低访问延迟。

4. 合法合规,确保数据安全。

三、方案设计1. 负载均衡器选型根据业务需求,选择合适的负载均衡器。

本方案推荐使用硬件负载均衡器,如F5、深信服等品牌。

硬件负载均衡器具有高性能、高可靠性、易于管理等优点,适用于大型企业及重要业务场景。

2. 负载均衡策略(1)轮询(Round Robin)将客户端请求按顺序分配到后端服务器,适用于服务器性能相近的场景。

(2)最小连接数(Least Connections)将客户端请求分配给当前连接数最少的服务器,适用于服务器性能不均的场景。

(3)源地址哈希(Source Hash)根据客户端IP地址进行哈希计算,将请求分配到固定的服务器,适用于有状态业务场景。

(4)权重(Weight)为每台服务器分配不同的权重,根据权重比例分配请求,适用于服务器性能差异较大的场景。

3. 健康检查负载均衡器定期对后端服务器进行健康检查,确保服务器正常运行。

检查方式包括:TCP连接、HTTP请求等。

当检测到服务器故障时,自动将其从负载均衡列表中剔除,待服务器恢复正常后,重新加入负载均衡列表。

4. 会话保持为保持用户会话状态,负载均衡器支持会话保持功能。

可根据业务需求选择以下方式:(1)源地址保持:根据客户端IP地址保持会话。

(2)Cookie保持:根据客户端Cookie信息保持会话。

5. 安全防护(1)负载均衡器支持SSL加密,确保数据传输安全。

(2)负载均衡器支持防火墙功能,对非法请求进行过滤,防止恶意攻击。

在LINUX(REDHAT)下双网卡负载均衡(LACP)

在LINUX(REDHAT)下双网卡负载均衡(LACP)

在LINUX(REDHAT)下双网卡负载均衡(LACP)(一)linux配置#cat/boot/config-kernel-version|grep-i bondingCONFIG_BONDING=m返回CONFIG_BONDING=m表示支持,否则需要编译内核使它支持bonding也可以用:查看一下内核是否已经支持bonding:modinfo bonding第一步:创建一个ifcfg-bondX#touch/etc/sysconfig/network-scripts/ifcfg-bond0新建一个bond0配置文件#cat/etc/sysconfig/network-scripts/ifcfg-bond0DEVICE=bond0BOOTPROTO=staticIPADDR=1.1.1.2NETMASK=255.255.255.0BROADCAST=1.1.1.255NETWORK=1.1.1.0GATEWAY=1.1.1.1ONBOOT=yesTYPE=Ethernet编辑ifcfg-bond0如上第二步:修改/etc/sysconfig/network-scripts/ifcfg-ethX这个实验中把网卡1和2绑定,修改/etc/sysconfig/network-scripts/ifcfg-ethX相应网卡配置如下:#cat/etc/sysconfig/network-scripts/ifcfg-eth1TYPE=EthernetDEVICE=eth1HWADDR=00:d0:f8:40:f1:a0网卡1macBOOTPROTO=noneONBOOT=yesUSERCTL=noMASTER=bond0SLAVE=yes#cat/etc/sysconfig/network-scripts/ifcfg-eth2TYPE=EthernetDEVICE=eth2HWADDR=00:d0:f8:00:0c:0c网卡2macBOOTPROTO=noneONBOOT=yesUSERCTL=noMASTER=bond0SLAVE=yes第三步:配置/etc/modprobe.conf,添加alias bond0bonding #cat/etc/modprobe.confalias eth0e100alias snd-card-0snd-intel8x0options snd-card-0index=0options snd-intel8x0index=0remove snd-intel8x0{/usr/sbin/alsactl store0>/dev/null2>&1||:;};/sbin/modprobe-r --ignore-remove snd-intel8x0alias eth18139toooptions3c501irq=3alias eth2tulip上面是三网卡本身的配置如果要绑定和做lacp只要再加上下面两条配置alias bond0bonding绑定options bond0miimon=100mode=4mode=4是lacp第四步:配置/etc/rc.d/rc.local,添加需要绑定的网卡#cat/etc/rc.d/rc.localtouch/var/lock/subsys/local配置本身就有这条命令ifenslave bond0eth1eth2这条命令是添加需要绑定的网卡1和2 到这里就完成bonding的配置了可以查看一下第五步:重启网络服务和重启pc#service network restart重启网络服务#shutdown-r now重启pc重启后可以查看bonding情况:网卡1和2都绑定上了,模式为802.3ad#cat/proc/net/bonding/bond0Ethernet Channel Bonding Driver:v3.0.3(March23,2006)Bonding Mode:IEEE802.3ad Dynamic link aggregationTransmit Hash Policy:layer2(0)MII Status:upMII Polling Interval(ms):100Up Delay(ms):0Down Delay(ms):0802.3ad infoLACP rate:slowActive Aggregator Info:Aggregator ID:1Number of ports:2Actor Key:9Partner Key:1Partner Mac Address:00:d0:f8:22:33:baSlave Interface:eth1MII Status:upLink Failure Count:0Permanent HW addr:00:d0:f8:40:f1:a0Aggregator ID:1Slave Interface:eth2MII Status:upLink Failure Count:0Permanent HW addr:00:d0:f8:00:0c:0cAggregator ID:1接口配置信息:新增了bond0的配置信息,接口bond0和eth1,eth2,绑定后三个接口使用的mac都是同一个:00:D0:F8:40:F1:A0 #ifconfigbond0Link encap:Ethernet HWaddr00:D0:F8:40:F1:A0inet addr:1.1.1.2Bcast:1.1.1.255Mask:255.255.255.0inet6addr:fe80::2d0:f8ff:fe40:f1a0/64Scope:LinkUP BROADCAST RUNNING MASTER MULTICAST MTU:1500Metric:1RX packets:128errors:0dropped:0overruns:0frame:0TX packets:259errors:0dropped:0overruns:0carrier:0collisions:0txqueuelen:0RX bytes:15466(15.1KiB)TX bytes:39679(38.7KiB)eth0Link encap:Ethernet HWaddr00:11:11:EB:71:E2inetaddr:192.168.180.8Bcast:192.168.180.15Mask:255.255.255.240 inet6addr:fe80::211:11ff:feeb:71e2/64Scope:LinkUP BROADCAST RUNNING MULTICAST MTU:1500Metric:1 RX packets:311errors:0dropped:0overruns:0frame:0TX packets:228errors:0dropped:0overruns:0carrier:0collisions:0txqueuelen:1000RX bytes:30565(29.8KiB)TX bytes:35958(35.1KiB)eth1Link encap:Ethernet HWaddr00:D0:F8:40:F1:A0inet6addr:fe80::2d0:f8ff:fe40:f1a0/64Scope:LinkUP BROADCAST RUNNING SLAVE MULTICASTMTU:1500Metric:1RX packets:54errors:0dropped:0overruns:0frame:0TX packets:97errors:0dropped:0overruns:0carrier:0collisions:0txqueuelen:1000RX bytes:6696(6.5KiB)TX bytes:13821(13.4KiB)Interrupt:209Base address:0x2e00eth2Link encap:Ethernet HWaddr00:D0:F8:40:F1:A0inet6addr:fe80::2d0:f8ff:fe40:f1a0/64Scope:LinkUP BROADCAST RUNNING SLAVE MULTICAST MTU:1500Metric:1RX packets:74errors:0dropped:0overruns:0frame:0TX packets:162errors:0dropped:0overruns:0carrier:0collisions:0txqueuelen:1000RX bytes:8770(8.5KiB)TX bytes:25858(25.2KiB)Interrupt:201Base address:0x2f00lo Link encap:Local Loopbackinet addr:127.0.0.1Mask:255.0.0.0inet6addr:::1/128Scope:HostUP LOOPBACK RUNNING MTU:16436Metric:1RX packets:6283errors:0dropped:0overruns:0frame:0TX packets:6283errors:0dropped:0overruns:0carrier:0collisions:0txqueuelen:0RX bytes:9783674(9.3MiB)TX bytes:9783674(9.3MiB)(二)锐捷交换机配置:lacp system-priority100全局配置lacp优先级interface GigabitEthernet0/23no switchportlacp port-priority100接口的lacp优先级port-group1mode active接口下开启lacp主动模式interface GigabitEthernet0/24no switchportlacp port-priority100port-group1mode activeinterface AggregatePort1no switchportno ip proxy-arpip address1.1.1.1255.255.255.0和linux成功建立lacp后状态信息如下:Show lacp summarySystem Id:100,00d0.f822.33baFlags:S-Device is requesting Slow LACPDUs F-Device is requesting Fast LACPDUs. A-Device is in active mode.P-Device is in passive mode.Aggregate port1:Local information:LACP port Oper Port Port Port Flags State Priority Key Number State----------------------------------------------------------------------Gi0/23SA bndl1000x10x170x3dGi0/24SA bndl1000x10x180x3d Partner information:LACP port Oper Port Port Port Flags Priority Dev ID Key Number State---------------------------------------------------------------------Gi0/23SA25500d0.f840.f1a00x90x20x3dGi0/24SA25500d0.f840.f1a00x90x10x3d State表示状态信息:bndl表示lacp建立成功,sup表示不成功。

linux 负载load正常范围

linux 负载load正常范围

linux 负载load正常范围(最新版)目录1.引言:介绍 Linux 负载的概念2.Linux 负载的正常范围3.监控 Linux 负载的方法4.如何调整 Linux 负载5.结论:总结 Linux 负载的重要性和合理调整负载的意义正文【引言】在 Linux 操作系统中,负载(load)是一个重要的性能指标,用于衡量系统当前的工作负载情况。

一个稳定且合理的负载范围可以保证系统的正常运行和性能。

本文将为您介绍 Linux 负载的概念,以及如何监控和调整负载,使其保持在正常范围内。

【Linux 负载的正常范围】Linux 负载的正常范围通常在 1.0 至 5.0 之间。

当负载值在这个范围内时,表示系统资源利用率较为均衡,系统性能较为稳定。

然而,这并不意味着负载值越低越好。

实际上,一个适当的负载值可以提高系统资源的利用率,从而提高整体性能。

【监控 Linux 负载的方法】要监控 Linux 负载,可以使用以下命令:1.`top`:这是一个实时显示系统状态的命令行工具,可以查看实时的负载情况。

2.`ps`:通过查看进程状态,可以了解当前系统中运行的进程数量和负载分布。

3.`vmstat`:这是一个虚拟内存状态命令,可以查看系统的虚拟内存状态、CPU 使用状况、磁盘 I/O 等信息,从而了解系统的负载状况。

【如何调整 Linux 负载】如果发现 Linux 负载过高,可以采取以下措施进行调整:1.优化进程调度:通过调整进程的优先级,可以影响进程的执行顺序,从而改变系统的负载分布。

2.合理分配资源:对于多用户共享的系统,可以根据用户的需求和权限,合理分配系统资源,降低不必要的负载。

3.减少不必要的进程:通过杀死或暂停暂时不需要的进程,可以降低系统的负载。

4.升级硬件或优化软件:提高硬件配置或优化软件性能,可以提高系统的处理能力,降低负载。

【结论】Linux 负载是衡量系统性能的重要指标,合理的负载范围可以保证系统的稳定运行。

三层交换机负载均衡配置方法

三层交换机负载均衡配置方法

三层交换机负载均衡配置方法三层交换机负载均衡配置方法下面是负载均衡在三层交换机上的配置的全过程,按照以下的步骤,相信你一定可以成功完成整个配置步骤。

三层交换机配置——配置一组二层端口configure terminal 进入配置状态nterface range {port-range} 进入组配置状态三层交换机配置——配置三层端口configure terminal 进入配置状态interface {{fastethernet | gigabitethernet} interface-id} | {vlan vlan-id} | {port-channel port-channel-number} 进入端口配置状态no switchport 把物理端口变成三层口ip address ip_address subnet_mask 配置IP地址和掩码no shutdown 激活端口例:Switch(config)# interface gigabitethernet0/2Switch(config-if)# no switchportSwitch(config-if)# ip address 192.20.135.21 255.255.255.0Switch(config-if)# no shutdown三层交换机配置——配置VLANconfigure terminal 进入配置状态vlan vlan-id 输入一个VLAN号, 然后进入vlan配态,可以输入一个新的VLAN号或旧的来进行修改name vlan-name 可选)输入一个VLAN名,如果没有配置VLAN 名,缺省的名字是VLAN号前面用0填满的4位数,如VLAN0004是VLAN4的缺省名字mtu mtu-size (可选) 改变MTU大小例:Switch# configure terminalSwitch(config)# vlan 20Switch(config-vlan)# name test20Switch(config-vlan)# end或Switch# vlan databaseSwitch(vlan)# vlan 20 name test20Switch(vlan)# exit三层交换机配置——端口分配给一个VLANconfigure terminal 进入配置状态interface interface-id 进入要分配的端口switchport mode access 定义二层口switchport access vlan vlan-id 把端口分配给某一VLAN例:Switch# configure terminalEnter configuration commands, one per line. End with CNTL/Z.Switch(config)# interface fastethernet0/1Switch(config-if)# switchport mode accessSwitch(config-if)# switchport access vlan 2Switch(config-if)# endSwitch#配置VLAN trunkconfigure terminal 进入配置状态interface interface-Id 进入端口配置状态switchport trunk encapsulation {isl | dot1q | negotiate}配置trunk封装ISL 或 802.1Q 或三层交换机配置——自动协商例:switchport mode {dynamic {auto | desirable} | trunk} 配置二层trunk模式。

linux下nginx【反向代理】配置【负载均衡】配置

linux下nginx【反向代理】配置【负载均衡】配置

linux下nginx【反向代理】配置【负载均衡】配置nginx 安装过程略过,新⼿可参考本次主要记录下nginx配置⽂件的设置过程nginx 的配置⽂件nginx.conf 可以配置多个端⼝:复制⼀个 server{ //code } 代码块修改端⼝即可如下配置⽂件中 nginx 启动后,可访问以下两个端⼝。

修改后配置⽂件后,访问 http://ip:10088 和 http://ip:10087 均可请求到nginx服务。

1、10088端⼝配置反向代理,消除跨域问题。

在 server { //code} 中添加如下代码则可以添加⼀个Tomcat 服务的反向代理。

原始访问tomcat 的路径为 http://ip:8582/ncms 在 nginx 配置⽂件中加⼊以下代码后,则可以通过 http://ip:10088/ncms 访问到 tomcat的服务。

这对于在⼀台服务器上发布多个tomcat时统⼀的地址端⼝+不同项⽬,可以完美绕开跨域问题。

location /ncms {proxy_pass http://127.0.0.1:8582;proxy_set_header Host $host:10088;proxy_set_header X-Real-IP $remote_addr;proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;proxy_set_header Via "nginx";client_max_body_size 50m;}2、10087端⼝配置ip_hash模式的负载均衡,ip_hash可以绕开解决session共享的问题。

⽬前许多应⽤均为多节点部署。

例如:同⼀个java Web应⽤部署了4个 Tomcat 服务,把tomcat原始访问地址+端⼝配置成如下模式, weight为权重。

以下配置模式表⽰ server 10.174.25.213:8582 weight=6 有60%的概率处理客户端请求。

Linux1 DNS服务器 配置DNS负载均衡功能

Linux1 DNS服务器  配置DNS负载均衡功能

Linux1 DNS服务器配置DNS负载均衡功能随着网络的规模越来越大,用户数量急剧增加,网络服务器的负担也变得越来越重,一台服务器要同时应付成千上万用户的并发访问,必然会导致服务器过度繁忙,响应时间过长的结果。

为了解决这个问题,可以在DNS服务器上配置负载均衡功能,DNS负载均衡是在DNS服务器中为同一个域名配置多个IP地址(为一个主机名设置多条A资源记录),在应答DNS查询时,DNS服务器对每个查询将以DNS文件中主机记录的IP地址按顺序返回不同的解析结果,将客户端的访问引导到不同的计算机上去,从而达到负载均衡的目的。

下面是一个实现邮件服务器负载均衡的配置片段(在区域数据文件中),如图6-45所示。

图6-45 负载均衡在以上配置中,mail、mail1和mail2均是“.”域中的邮件服务器,而且优先级都是10。

当客户端(通常是SMTP软件)查询邮件服务器IP地址时,Bind 将根据“rrset-order”语句定义的次序把配置中设定的3条A记录都发送给客户端,客户端可以使用自己规定的算法从3条记录中挑选一条。

“rrset-order”语句是主配置文件中“options”主语句的一条子语句,可以定义固定、随机和轮询的次序。

下面的配置是另一种实现邮件服务器负载平衡的方法,如图6-46所示。

图6-46 负载均衡在以上配置中,“”对应了3个IP地址,此时,具体选择哪一条A 记录,也是由“rrset-order”语句决定。

另外,在反向解析文件中,这3个IP都要对应mail主机,以免有些邮件服务器为了反垃圾邮件进行反向查询时出现问题。

除了邮件服务器以下,其他的服务也可以采用类似的配置实现负载均衡。

例如,要使用3台内容相同的FTP服务器共同承担客户机的访问,它们的IP地址分别是“10.10.1.10”、“10.10.1.11”和“10.10.1.12”。

可以在在区域数据文件中输入以下内容来达到目的,如图6-47所示。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

Linux负载均衡的设置步骤
本文主要介绍了Linux负载均衡的设置步骤。

包括ipvsadm的安装,设置IPVS,Load Balancer,LDirectord等方面的具体介绍,希望大家通过本文的学习能对这方面有所了解。

Linux作为一个具有代表性的开源系统,受到广大的用户所喜爱。

那么如何在LVS下进行负载均衡的使用呢?现在我们就来详细地为大家介绍一下,主要是使用ipvsadm来实现负载均衡。

那么按照一贯的程序,首先是安装程序,然后是配置。

Linux Virtua Server负载均衡ipvsadm使用方法
1.安装ipvsadm
下载ipvsadm,下载时需注意对应自己的内核版本?
ipvsadm下载网址:http://www.Linux /software/
本文使用的是FC8系统,内核版本2.6.23.1,对应ipvsadm版本1.24?
安装时需要Linux内核源码,如果安装系统时没有安装源码,需要再下载内核源码?本文使用的内核是Linux-2.6.23.1.tar.bz2?把内核解压到/usr/src/Linux-2.6.23.1?下面开始编译安装:
建立内核快捷方式:ln-s/usr/src/Linux-2.6.23.1/usr/src/Linux
解压ipvsadm:tar zxvf ipvsadm-1.24.tar.gz
安装ipvsadm:
cd ipvsadm-1.24
make
make install
安装完成后,下一步我们开始配置IPVS,本文主要介绍Direct Routing方式的配置?
2.配置IPVS(Direct Routing)
2.1.网络结构
三台计算机,一台Director安装Linux作负载均衡器,另两台ReaServer提供服务?
Director:eth0=192.168.34.40,eth0:0(VirtuaIP) =192.168.34.41
RealServer1:IP=192.168.34.26
RealServer2:IP=192.168.34.27
服务端口:443
客户通过VirtuaIP 192.168.34.41访问服务器?Load Balancer将来自客户的访问按一定的负载均衡机制分发到192.168.34.26和192.168.34.27这两台实际提供服务的服务器?
2.2.Load Balancer配置
步骤1:配置Director IP
在Director上配置好eth0的IP(192.168.34.40),然后在eth0上新增一个IP(192.168.34.41),命名为eth0:0,作为VirtuaIP?
步骤2:配置IPVS Table脚本
编写sh脚本如下:
VIP=192.168.34.41 #VrituaIP地址
RIP1=192.168.34.27 #ReaServer 1 IP
RIP2=192.168.34.26 #ReaServer 2 IP
GW=192.168.34.1 #ReaServer 网关IP
#清除IPVS Table
ipvsadm-C
#设置IPVS Table
ipvsadm-A-t $VIP:443-s wlc
ipvsadm-a-t $VIP:443-r $RIP1:443-g-w 1
ipvsadm-a-t $VIP:443-r $RIP2:443-g-w 1
#将IPVS Table保存到/etc/sysconfig/ipvsadm
/etc/rc.d/init.d/ipvsadm save
#启动IPVS
service ipvsadm start #或者/etc/rc.d/init.d/ipvsadm start也可以
#显示IPVS状态
ipvsadm-l
#脚本结束----------------------------
该脚本配置IPVS Table,并将配置保存到/etc/sysconfig/ipvsadm文件中?
以后修改IPVS TABLE可直接修改该脚本?当然,您也可以直接编辑该文件来实现IPVS Table的配置?
配置完毕后执行/etc/rc.d/init.d/ipvsadm start(或service ipvsadm start)启动IPVS?
通过以上两个步骤,就完成了负载均衡器IPVS的配置?
2.3.ReaServer配置
ReaServer主要做两个配置,一是添加一个虚拟IP,二是关闭该IP的ARP响应?
2.3.1.Windows系统
对于Windows系统的服务器,只要添加一个Loopback的网卡,IP地址设置成虚拟
IP(192.168.34.41),子网掩码设置成255.255.255.255,网关地址留空?
操作:
从控制面板选择添加硬件;
选择"是,硬件已连好";
选择"添加新的硬件设备";
选择"安装我手动从列表选择的硬件";
选择"网络适配器";
从厂商列表选择"Microsoft",从网卡列表选择"Microsoft Loopback Adapter";
点下一步开始安装硬件,安装完毕后出现一个新的网卡,配置好IP和子网掩码?Windows子网掩码无法配置成255.255.255.255,我们可以先按默认的保存配置,然后从注册表修改子网掩码?
注册表修改子网掩码:
从注册表
[HKEY_LOCAL_MACHINESYSTEMCurrentControlSetServicesTcpipParametersInterface s]下找到对应的网卡,将SubnetMask修改成255.255.255.255?然后禁用再启用该网卡即可?
3.配置LDirectord RealServer故障检测及管理
LDirectord进程定时检测各ReaServer运行状态,当检测到某台ReaServer故障时,则将该Server从负载均衡调度列表删除,当恢复正常时再加入?
3.1.安装LDirectord
LDirectord软件包含在HeartBeat软件包中?安装HeartBeat时就同时安装了LDirectord?HeartBeat下载网址:http://www.Linux /software/?
安装HeartBeat还需要安装libnet等软件包?可以到网上下载这些软件包来安装?Libnet下载网址:/libnet/dist/libnet.tar.gz
安装libnet:
tar zxf libnet.tar.gz
cd libnet
./configure
make
make install
安装HeartBeat:
./ConfigureMe configure
make
make install
安装完后执行以下命令加入自启动项:
chkconfig-add ldirectord
3.2.配置LDirectord
heartbeat/ldirectord目录下有个ldirectord.cf文件?该文件是ldirectord的配置范例?在/etc/ha.d/目录下新建一个ldirectord.cf文件,按配置范例格式进行配置,主要配置项如下:
checktimeout=3 #检测超时3s
checkinterval=1 #检测间隔1s
fallback=127.0.0.1:443 #所有服务器都故障时访问该服务器
autoreload=yes #配置文件改变时自动加载
logfile="/var/log/ldirectord.log" #日志文件
quiescent=yes
virtual=192.168.34.41:443 #虚拟IP
real=192.168.34.26:443 gate
real=192.168.34.27:443 gate
fallback=127.0.0.1:443 #所有服务器都故障时访问该服务器
service=none
scheduler=wlc
persistent=600
protocol=tcp
checktype=on
3.3.启动ldirectord
/etc/rc.d/init.d ldirectord start
Linux负载均衡安装中注意:启动时如果提示ldirectord某行出错,一般是有些运行需要的软件没安装,大部分是perl开头的软件包?
net-snmp-5.3-4.2.i386.rpm
net-snmp-libs-5.3-4.2.i386.rpm
perl-Compress-Zlib-1.41-1.2.2.i386.rpm
perl-HTML-Parser-3.50-1.i386.rpm
perl-HTML-Tagset-3.10-2.1.noarch.rpm
perl-libwww-perl-5.805-1.1.noarch.rpm
perl-MailTools-1.74-1.fc5.noarch.rpm
perl-TimeDate-1.16-3.2.noarch.rpm
perl-URI-1.35-2.2.noarch.rpm。

相关文档
最新文档