RH436-1数据管理、存储及集群技术概述

合集下载

2024年度浪潮服务器、存储及方案介绍培训

2024年度浪潮服务器、存储及方案介绍培训

混合存储
结合磁盘和闪存的优势,提供高性价 比的存储方案,满足多种应用需求。
全闪存存储
采用全闪存设计,提供极致的IO性能 ,适用于高性能计算、虚拟化等场景 。
2024/2/3
9
存储容量与扩展性说明
01
02
03
容量规划
根据业务需求进行存储容 量规划,支持TB、PB级数 据存储。
2024/2/3
扩展方式
学员B
浪潮的整体解决方案给我留下了深刻印象,它们能够很好地满足企 业在不同场景下的需求,具有很高的实用性和可扩展性。
学员C
这次培训让我对浪潮在行业中的地位和影响力有了更清晰的认识,我 对未来与浪潮的合作充满了期待。
2024/2/3
30
未来发展趋势预测
2024/2/3
技术创新持续加速
随着云计算、大数据、人工智能等技术的不断发展,浪潮将继续 加大在这些领域的研发投入,推出更多创新产品。
选型原则和方法论
业务需求导向
根据业务需求确定服务器、存储的性能、容 量等关键指标。
可扩展性和易升级性
选择具有良好可扩展性和易升级性的产品, 以适应未来业务的发展。
2024/2/3
性价比优先
在满足业务需求的前提下,优先考虑性价比 高的产品。
可靠性和稳定性
确保选型的服务器、存储具有高可靠性和稳 定性,以保障业务的连续运行。
测试验收阶段
对实施完成的系统进行全面的测试和验收,确保系统符合 客户需求和预期效果。
2024/2/3
后期维护阶段
提供全面的后期维护服务,包括硬件保修、软件升级、技 术支持等。整个实施周期根据项目的复杂程度和客户要求 而定,一般为数周到数月不等。
17

RHCA436高可用科目题库

RHCA436高可用科目题库

本手册只针对RHCA-436高可用科目题库,环境、虚拟机配置、yum源等其他方面本文概不涉及版权所有者为Master-ztj,如转载请著名出处,欢迎下载学习,禁止用于商业用途考试环境:1台物理机:3台虚拟机:第一题:请配置一个高可用集群,要求如下:1.集群名称:cluster02.集群默认用户的密码请设置为:redhat解:1.三个节点通过yum安装集群组件:yum –y install pcs fence-virt fence-virtd fence-virtd-* fence-agents-all如果太长,记不住可以这样yum –y install pcs fence*2. 三个节点关闭防火墙或使防火墙通过集群服务,建议使用方法2systemctl disable firewalldsystemctl stop firewalld或firewall-cmd - -permanent - -add-service=http #后续题里面会有http服务firewall-cmd - -permanent - -add-service=high-availablity #集群服务firewall-cmd - -permanent - -add-port=1229/tcp #tcp协议下fence端口打开firewall-cmd - -permanent - -add-port=1229/udp #udp协议下fence端口打开firewall-cmd - -reload #防火墙策略刷新,使其即时生效请注意上文中单- 和双- -的区别3. 三个节点启动pcsd服务systemctl enable pcsd ; systemctl start pcsd4.单节点效验虚拟机是否符合集群要求pcs cluster auth node{a,b,c}.private.example #此命令单节点运行即可,命令中的那个大括号为正则表达式代表和的关系输入集群默认用户:hacluster 密码:redhat提示Authorized代表配置是没有问题的5. pcs cluster setup --name cluster0 node{a,b,c}#建立名称为cluster0的集群集群内主机名称为nodea、nodeb、nodec6. pcs cluster enable --all#将集群设置为开机自启,这里先不要用start命令启动集群第二题,配置集群的fence功能,此功能的作用是手动切换资源,防止集群脑裂背景:1.这里我们使用fence_xvm方式来配置集群fence功能2.环境里面需要在物理机上使用:dd if=/dev/urandom of=/etc/cluster/fence_xvm.key bs=1K count=4 这条命令创建fence密钥“fence_xvm.key”然后CP到3个节点的/etc/cluster/目录下,拷贝之前,还需要在物理上运行fence_virtd -c命令来配置fence功能使用哪块网卡,一般选择私网的那块网卡,环境配置,这里就不多讲了解:1.pcs cluster start --all #启动集群2.pcs stonith create fence_nodea fence_xvm port=”nodea”pcmk_host_list="" #单节点输入即可pcs stonith create fence_nodeb fence_xvm port=”nodeb”pcmk_host_list=""pcs stonith create fence_nodec fence_xvm port=”nodec”pcmk_host_list=""3.pcs stonith showpcs stonith --fullpcs status #查看fence服务是否启动,配置是否正常如下图所示如上所示代表集群fence功能正常,集群状态正常第三题,配置集群的日志文件为本地/var/log目录下的nodea.log nodeb.log nodec.log 解:1.vim /etc/corosync/corosync.conf最下面logging {to_syslog: yes在这行下面添加:to_file: yeslogfile: /var/log/nodea.log}绿色这2行然后:按ESC在冒号后面输入wq 保存退出重启集群服务pcs cluster stop --allpcs cluster start --allcat /var/log/nodea.log查看是否有内容,如下图所示:代表成功将日志文件改写定位第四题,配置集群报警邮箱地址为****************************.com资源名称为:ClusterAlert解:1. pcs resource create clustermonitor mailto email="***************************.com" subject=ClusterAlert --group clustergroup第七题和第八题一起来,配置集群iscsi磁盘和多路径背景:这里先做7/8/9/10 再做5/61. yum -y install iscsi-initiator-utils device-mapper-multipath装iscsi和多路径包2. vim /etc/iscsi/initiatorname.iscsi编辑iscsi配置文件改为:InitiatorName=.example:nodea另外2台机器分别改为:InitiatorName=.example:nodebInitiatorName=.example:nodec保存后三台机器都要改下链接刷新值sed -i ‘s/120/5/g ‘ /etc/iscsi/iscsi.conf从2分钟改为5秒3. iscsiadm -m discovery -t st -p 192.168.1.9:3260iscsiadm -m discovery -t st -p 192.168.2.9:3260iscsiadm -m node -l配置iscsi链接,如下图所示fdisk -l 查看磁盘4.配置多路径软件mpathconf --enable启用多路径配置文件修改vim /etc/multipath.conf在最后的大括号中添加: devnode “^vd[a-z]” 如下图所示:保存退出5.输入multipath -v3multipath -ll将2个盘虚拟为1个,fdisk -l 查看结果如图所示将sda和sdb 虚拟为mpatha第九题,配置集群资源磁盘锁和文件系统1.pcs resource create dlm controld op monitor interval=30s on-fail=fence clone interleave=true ordered=truepcs resource create clvmd clvm op monitor interval=30s on-fail=fence clone interleave=true ordered=true创建dlm和clvmd这2个集群资源2.pcs constraint order start dlm-clone then clvmd-clone设置先启动dlm 再启动clvmdpcs constraint colocation add clvmd-clone with dlm-clone设置clvmd随dlm一起启动3.yum -y install dlm lvm2-cluster gfs2-utils安装dlm锁、lvm2和gfs2文件系统lvmconf --enable-cluster启用lvm集群管理功能systemctl stop lvm2-lvmetad.service停止本地lvm服务pcs property set no-quorum-policy=freeze 配置no-quorum-policy为freeze4.pvcreate /dev/mapper/mpathavgcreate -Ay -cy clustervg /dev/mapper/mpathalvcreate -L 1G -n servicedata clustervgmkfs.gfs2 -j3 -p lock_dlm -t cluster0:data /dev/clustervg/servicedata创建pv vg lv 并格式化为gfs2文件系统按y 然后回车,格式化格式化完毕第十题,创建集群文件系统clusterfs解:1. pcs resource create clusterfs Filesystem device=/dev/clustervg/servicedata directory=/var/www/ fstype="gfs2" options="noatime" op monitor interval=10s on-fail=fence clone interleave=true单节点输入即可2.pcs resource show clusterfs 查看资源3. pcs constraint order start clvmd-clone then clusterfs-clone配置启动顺序先启锁再启文件系统4. pcs constraint colocation add clusterfs-clone with clvmd-clone锁成功启动后,启动文件系统第五题和第六题配置集群阿帕奇服务,使集群服务永不在nodea上运行,资源首先会在nodeb上运行,如果nodeb宕掉,资源会顺利漂移到nodec上解:1. yum -y install httpd 安装阿帕奇包2. cd /var/www/html3. cat >>index.html<< EOF 自己写一个网页文件,考试的时候会给你一个写好的4. pcs resource create clusterservice apache --group clustergrouppcs resource create clusterip IPaddr2 ip=172.25.0.88 cidr_netmask=24 --group clustergrouppcs constraint order start clusterfs-clone then clustergroup创建apache服务资源和漂移IP资源,先启动集群文件系统再启动集群资源如下图所示:5.配置集群资源在nodeb节点上运行,并且永不在nodea上运行pcs constraint location clustergroup prefers pcs constraint location clustergroup avoids 6. pcs config查看集群的全部配置信息7.打开网页172.25.0.88 看看是否有内容将节点nodeb poweroff后查看网页是否依然能够打开在节点nodec上pcs status 查看群集状态:资源全部在nodec上,代表集群功能正常,全部题目完成。

海康威视监控平台存储解决方案资料

海康威视监控平台存储解决方案资料

...海康威视IP SAN/NAS存储解决方案杭州海康威视数字技术有限公司杭分公司二〇〇九年六月目录1.基本需求 (4)1.1DVR/DVS需求 (4)1.2容量计算公式 (4)1.3容量计算 (4)1.4集中式共享存储 (5)1.5数据可靠性 (5)1.6可扩展性 (5)1.7高性能 (6)1.8网络需求 (6)2.解决方案 (7)2.1.方案选择 (7)2.1.1.DVR直接存储 (7)2.1.2.NAS附网存储 (7)2.1.3.IP存储网络 (7)2.2.方案描述 (8)2.2.1.系统原理图 (9)2.3.存储技术参数 (10)2.3.1.存储配置 (10)2.4.方案分析 (13)2.4.1.监控专用存储系统,充分满足性能要求 (13)2.4.2.同时提供IP SAN和NAS (13)2.4.3.极易管理(全中文) (14)2.4.4.独有安全技术 (14)2.4.5.高可扩充性 (14)2.4.6.高性价比 (15)2.4.7.数据存储的高可靠性和可用性 (15)3.DS-A20系列IP SAN/NAS存储产品 (16)4.DS-6X00HC/HF视频服务器 (19)4.1.产品概述 (19)4.2.订货型号 (19)4.3.硬件接口 (19)4.4.技术参数 (20)5.DS-6X00HC/HF-ATA视频服务器 (21)5.1.产品概述 (21)5.2.订货型号 (21)5.3.物理接口 (21)5.4.技术参数 (22)5.5.DS-2DF1-6XY系列网络球机 (23)1. 基本需求某银行需要64路视频监控系统,7*24小时监控,数据保存3个月便可以覆盖。

存储方案采用IP SAN/NAS 集中存储。

采用4CIF 格式,1Mbps 码流。

1.1 DVR/DVS 需求➢ 64路➢ 图象分辨率: 1Mpbs➢ 7*24小时➢ 保存时间:90天1.2 容量计算公式第一步:根据式(1)计算单个通道每小时所需要的存储容量i q , 单位MByte 。

存储基础知识应知应会

存储基础知识应知应会

硬盘类型
功能
桌面级 企业级
桌面级硬盘主要针对家庭个人应用,应用在台式PC、笔记本等领域;企业级硬盘针对企业级应用,主要应用在服 务器、存储磁盘阵列、图形工作站等。 ✓容量:相比桌面级硬盘,企业级硬盘具备更大的存储容量,当前单硬盘最大容量可达4TB ✓性能:主要体现在转速、缓存、平均寻道时间等 ✓可靠性:企业级硬盘具有更高的平均无故障时间(MTBF),一般来说桌面级硬盘的平均无故障时间大部分都在50 万左右小时,企业级的都在100万以上。
存储基础知识应知应会
王智 90002439 (email:rocty.wangzhi@) IT存储解决方案销售部
目录
1 存储基础知识 2 存储产品系统及软件概述 3 存储基本解决方案介绍 4 存储业界主要厂商介绍
存储是什么?
狭义的存储定义
广义的存储定义
CD、DVD、ZIP,磁带,硬盘等
NAS和SAN的融合——统一存储
统一存储:一种网络存储架构,它既支持基于文件的NAS存储,又支持基于块的SAN存储。
Applications Databases Digital media File services
GE/10GE FC FCoE NFS CIFSHTTP FTP

文件
SAN、NAS、iSCSI 控制器
解决问题: • 有限硬盘槽位,容量小
• 单硬盘存放数据,可靠性差
控制器中包含RAID功能、大容量 Cache,同时使得磁盘阵列具有 多种实用的功能,配置专用管理软 件进行配置管理
解决问题: • 硬盘成为系统性能瓶颈 •有限硬盘槽位,容量小 • 单硬盘存放数据,可靠性差
解决问题: • 硬盘成为系统性能瓶颈 • 有限硬盘槽位,容量小

RH436-1数据管理、存储及集群技术概述

RH436-1数据管理、存储及集群技术概述

数据管理、存储及集群技术概述一、数据1.数据的分类1.1.用户数据:用户数据的保护比系统数据更具有挑战性,用户数据的丢失或泄露则是致命的,比如银行业务1.2.系统数据:系统数据丢失了并不会造成企业真正的损失1.3.应用数据:应用数据在企业中是最不能轻视的,大量攻击都是通过系统上应用的漏洞来开展的2.数据可用性2.1.哪些数据必需保证高可用2.2.注意数据的生命周期:分类存储(打包归档还是直接存储)2.3.数据的访问方法和频率:是只读的还是可读写的?是应用程序的数据,还是可以直接访问的数据?是一个网络配置文件,还是为为了安全的配置?2.4.应用程序的“data starved”数据饥饿:不应该是数据跟不上来,而应该是程序跟不上2.5.所有的一切都要防止单点故障(SPOF:single points of failur)3.规划设计3.1. 数据越少要求越小3.2. 减小复杂性3.3. 增加灵活性3.4. 保证数据的完整性二、集群集群是有一组计算机来共同完成一件比较复杂的事情。

1.集群的目标1.1. HPC(High Performance):高性能集群,追求性能,大型的运算,1.2. HA(High Availability):高可用,追求稳定,主要是为了防止单点故障,为了实现的是24小时不间断的工作,并不要求有多快1.3. LBC(Load Balancing):负载均衡集群,基本不用(现大多数利用硬件LBC设备)2.redhat的cluster products2.1. RHCS(Redhat cluster suite):红帽集群套件,在RHEL5的AP版自带的2.2. GFS(Global File system):全局文件系统,GFS支持并发写入。

是一个集群级的文件系统。

2.3. CLVM (Clusterd logical volume manager):集群级的逻辑卷,的LVM只是单机版的逻辑卷,在一个节点做了LVM,只能在这个节点看到。

华为服务器存储方案(IPSAN)

华为服务器存储方案(IPSAN)
可以基于同一软件系统和异构系统实现多厂商的统一存储管理,并简化维护工作量;
不改变用户的使用及管理习惯,实现维护管理效率最高
OceanStorS1200系列IP存储系统
IP网络存储是采用IP SAN架构,通过iSCSI(Internet SCSI,Internet小型计算机系统接口)协议来实现存储数据在服务器和存储设备之间高速传输。它继承了IP网络标准性、高性能、高可靠性、易管理性、可扩展性优点,实现存储与用户现有网络的无缝连接。
√VTL虚拟磁带库——S1200系列可通过VTL功能,虚拟成为一台能够达到1.2TB/hr的备份/恢复速度,可模拟上千种磁带机/磁带库型号和磁带存储格式的高性能虚拟磁带库。
√用户能够通过一台S1200系列设备同时获得SAN和NAS双重功能。
图形化管理、简单易用
√易于使用。用户只需将S1200系列存储设备连接到IP网络,无需添加其它任何专用设备。
OceanStor S1200系列IP存储系统(以下简称S1200系列)同时支持SAN和NAS应用,是华为公司为满足中低端存储应用需求而设计的统一IP网络存储产品。S1200系列存储产品适用于:数据库、文件服务、媒体服务、系统及文件备份恢复、低成本远程备份等应用场合。
产品特性:
高可靠性可用性设计
√存储系统拥有4个GE接口,支持链路聚合和故障切换;
第二章
1、先进性
存储系统采用的技术必须是先进而成熟的。现在计算机技术的发展日新月异,要保护客户的投资就必须采用先进的技术,并且这种技术和产品必须被业界公认为成熟且有发展前途的。
2、实用性
建设网络系统的目的是要解决企业数据信息的共享和交换,提供现代化的管理,因此,设计方案的出发点就是要满足用户的信息要求。
4、保证系统高可靠性与高可用性

浪潮服务器存储及方案介绍培训-2024鲜版

浪潮服务器存储及方案介绍培训-2024鲜版

2024/3/28
16
浪潮服务器存储管理功能及特点
功能
浪潮服务器存储管理提供了一系列功能,包括存储资源 监控、存储池管理、卷管理、快照管理、数据备份与恢 复等,以满足不同场景下的存储需求。
特点
浪潮服务器存储管理具有以下特点
高可用性
采用高可用架构设计,确保存储服务的连续性和稳定性 。
灵活扩展
支持在线扩容和横向扩展,满足业务不断增长的需求。
等,满足不同客户的需求。
2024/3/28
技术特点
浪潮服务器采用先进的处理器技术 、高速互联技术、智能管理技术等 ,提供高性能、高可用性、高扩展 性的解决方案。
应用领域
浪潮服务器广泛应用于政府、金融 、教育、科研、企业等领域,为客 户提供全面的信息化解决方案。
5
浪潮服务器市场地位及竞争优势
市场地位

10
2024/3/28
03
CATALOGUE
浪潮服务器存储方案
11
方案架构及组成
01
02
03
存储架构
采用分布式存储架构,支 持海量数据存储和高速访 问。
2024/3/28
硬件组成
包括高性能服务器、大容 量存储设备、高速网络等 硬件设备。
软件系统
提供完善的存储管理软件 ,支持多种文件系统和数 据备份恢复功能。
26
THANKS
感谢观看
2024/3/28
27
统一管理
支持对多种类型的存储设备进行统一管理,简化管理流 程。
2024/3/28
数据安全
提供数据备份、恢复和容灾功能,保障数据安全可靠。
17
存储管理最佳实践
制定合理的存储规划

存储基础知识(RAID及磁盘技术)

存储基础知识(RAID及磁盘技术)

磁盘1 数据1a 数据2d 数据3g
P4 Q5
磁盘2 数据1b 数据2e
P3 Q4 数据5m
磁盘3 数据1c
P2 Q3 数据4j 数据5n
磁盘4 P1 Q2
数据3h 数据4k 数据5o
磁盘5 Q1
数据2f 数据3i 数据4l
P5
RAID 级别比较
项目 RAID0 RAID1
RAID10
RAID5 、RAID3
量就是指包括正反两面在内的单个盘片的总容量
转速:即主轴马达转动速度,单位为RPM(Round Per
Minute),即每分钟盘片转动圈数
缓存:是硬盘控制器上的一块内存芯片,具有极快的存
取速度,它是硬盘内部盘片和外部接口之间的缓冲器
容错性 冗余类型 热备盘选项
没有 没有 没有
有 复制 有
需要的磁盘数
一个或多个
只需2个
有 奇偶位

三个或更多
有 复制 有
有 奇偶位

有 两种奇偶位

只需4个
不小于6的偶数(6,8, 10,12,14,16)(因 为RAID5最少3个,再做
镜像,就是6个)
四个或更多
可用容量
N
N/2
N-1
N/2
N-2
N-2
其中RAID3与RAID5的区别为:RAID3更适合于顺序存取,RAID5更适合 于随机存取。需要根据具体的应用情况决定使用那种RAID级别。
RAID性能比较
RAID级*
RAID-0
RAID-1
RAID-5
RAID-10
RAID-50
RAID-6
别名
条带
镜象
分布奇偶位条带 镜象阵列条带 分布奇偶阵列条带 分布奇偶条带
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

数据管理、存储及集群技术概述一、数据1.数据的分类1.1.用户数据:用户数据的保护比系统数据更具有挑战性,用户数据的丢失或泄露则是致命的,比如银行业务λ1.2.系统数据:系统数据丢失了并不会造成企业真正的损失λ1.3.应用数据:应用数据在企业中是最不能轻视的,大量攻击都是通过系统上应用的漏洞来开展的λ2.数据可用性2.1.哪些数据必需保证高可用λ2.2.注意数据的生命周期:分类存储(打包归档还是直接存储)λ2.3.数据的访问方法和频率:是只读的还是可读写的?是应用程序的数据,还是可以直接访问的数据?是一个网络配置文件,还是为为了安全的配置?λ2.4.应用程序的“data starved”数据饥饿:不应该是数据跟不上来,而应该是程序跟不上λ2.5.所有的一切都要防止单点故障(SPOF:single points of failur)λ3.规划设计3.1. 数据越少要求越小λ3.2. 减小复杂性λ3.3. 增加灵活性λ3.4. 保证数据的完整性λ二、集群集群是有一组计算机来共同完成一件比较复杂的事情。

1.集群的目标1.1. HPC(High Performance):高性能集群,追求性能,大型的运算,λ1.2. HA(High Availability):高可用,追求稳定,主要是为了防止单点故障,为了实现的是24小时不间断的工作,并不要求有多快λ1.3. LBC(Load Balancing):负载均衡集群,基本不用(现大多数利用硬件LBC设备)λ2.redhat的cluster products2.1. RHCS(Redhat cluster suite):红帽集群套件,在RHEL5的AP版自带的λ2.2. GFS(Global File system):全局文件系统,GFS支持并发写入。

是一个集群级的文件系统。

λ2.3. CLVM (Clusterd logical volume manager):集群级的逻辑卷,的LVM只是单机版的逻辑卷,在一个节点做了LVM,只能在这个节点看到。

若果使用的是CLVM,做的LVM则可以在整个集群中看到。

λ2.4. Piranha:LVS 基础上设计的一套负载均衡高可用解决方案,LVS是基于IP 的负载均衡技术,由负载调度器和服务访问节点组成。

λ3.集群的基本拓扑4.RHEL storage Model存储模型红帽的存储模型包括五部分:4.1. 物理磁盘卷λ4.2. 块设备λ4.3. 文件系、λ4.4. VFS虚拟文件系统λ4.5. 应用程序的数据结构λ三、底层卷的管理1.磁盘卷是由描述数据物理限制的Block块组成的集合体1.1.卷可由多个设备合并组成。

λ1.2.磁盘卷可以通过条带化(RAID)技术来提高数据的可用性λ2.LUN(逻辑单元号)和UUID(通用唯一识别码)2.1. LUN:逻辑单元号,作用:主要是为了在SCSI只能接指定数量的磁盘,这样会限制数量的使用,则使用LUN号,来更加方便的扩展设备,更方便管理使用。

只是一个标识。

λ2.2. UUID:文件系统的唯一的表示号,可以使用blkid 进行查看λ[root@station9 proc]# blkid/dev/mapper/VolGroup00-LogVol00:UUID="ed31c60e-5371-4372-9d9c-a7f55f50641c" TYPE="ext3"/dev/sda2: LABEL="SWAP-sda2" TYPE="swap"/dev/sda1: LABEL="/boot" UUID="d51a6fdf-3997-4ab7-a4a7-af2b6899a7d1" TYPE="ext3"/dev/VolGroup00/LogVol00: UUID="ed31c60e-5371-4372-9d9c-a7f55f50641c" TYPE="ext3"3.访问卷(存储设备)3.1. DAS(Direct Attached Storage):直连附加存储λ3.2. shared storage:共享存储,多台主机共享一个设备。

共享存储可分为:λ 3.2.1. SAN(storage area network):存储区域网络⌝υ 3.2.1.1. scope of domain defined by membersυ 3.2.1.2. encapsulated scsi over fibre channelυ 3.2.1.3. deliver volume data blocks3.2.2. NAS(network attached storage):网络附加存储⌝υ 3.2.2.1. scope of domain defined by ip domainυ 3.3.3.2. NFS/CIFS/HTTP over tcp/ipυ 3.3.3.3. delivers file data blocks四、SAN(storage area network)存储区域网络1.SAN的拓扑结构1.1.传输的是scsi协议λ1.2.类似于本地直连(被识别成本地设备)λ1.3.光纤通道:通过fiber通道传输scsi协议λ1.4.ISCSI(internet scsi):通过tcp/ip网络通道传输scsi协议λ1.5.GNBD(Global network block device):通过基于kernel模块访问以太网上设备(现基本淘汰)λ2.Fiber channel:光纤通道组成:2.1.光纤λ2.2.Interface card (host bus adaptor):HBA卡,光纤卡λ2.3.光纤通道交换技术λ3.HBA3.1.通过光纤连接主机λ3.2.被识别成scsi适配器λ3.3.减轻I/O负载λ3.4.支持多路径λ4.Fibre channel switch:光纤交换机功能:4.1.为非块设备连接提供高速通道λ4.2.fabric服务λ4.3.扩展端口λ4.4.提供冗余λ5.交换技术:5.1.点对点:两设备相连λ5.2.环形λ5.3.交换fabricλ6.ISCSI(Internet SCSI)6.1.协议:客户端(initiator)发送scsi命令到远程存储设备(target)λ6.2.使用TCP/IP(tcp:3260)λ6.3.代替价格昂贵的fibre channel的低层方案,相对来性能要地很多。

λ7.GNBD(Global network block device)7.1.类似ISCSI,现在已不再发展λ7.2.利用以太网,传输的是块设备λ7.3.用于在fibre channel中实现类似GFS功能λ7.4.client-server模型:1. server共享本地block设备λ2. client访问共享设备8.NPS(network power switch)网络电源控制器,即电源FenceFence的工作原理:以双机的HA集群为例,当空闲节点通过心跳线得知服务节点发生问题,如通信失败等,空闲节点就会利用服务节点上的Fence卡将该节点关机或重启,并将服务资源“抢”到本节点上。

电源Fence则是检测到集群节点断电时则切换服务到另一节点。

λ9.ACPI(Advanced configuration and power interface)高级配置和电源接口9.1.用途:空闲cpu的电源管理,如当计算机比较空闲时,通过apci将其进入休眠λ9.2.硬件ACPI:λ⌝ 1.Dell DRAC:戴尔的远程访问接口卡⌝ 2.ILO:惠普的是iLo⌝ 3.IpmI: 英特尔的是IpmI(智能平台管理接口)⌝4功能:模拟电源键,可发送“shutdown -h now”集群发送"power off NOW"9.3.关闭apci服务λ#service acpid start#chkcofnig acpid off或启动是加入参数acpi=off#建议开启apci功能。

work Cluster Nodes(网络集群节点)10.1. 最好将集成心跳网络和服务网络分开λPrivate network :cluster trafficPublic network: service traffic10.2. 心跳线监控对方服务是否失败λ10.3. 防止单点故障,绑定两块以上的网卡,可以实现冗余和负载均衡的作用λ10.4. 网络设备必须支持组播λ⌝1组播用于集群间各节点之间的通信⌝2地址是集群创建之时自动生成的,但也可以手动地用其他地址覆盖⌝ 3.网络硬件(路由、交换、集线器、网卡等)必须支持组播11.广播与组播11.1.广播的特点就是单对多,广播是不管你需不需要这信息,通通都发一遍λ11.2.组播则是数据包发送给指定的接收者,组播则是有针对性地发送,效率自然比较好λ11.3.不是所有的以太网卡都支持组播λ11.4.IPv6很依赖组播,因为IPv6取消了广播,采用了更合理的组播λ12.多路径:12.1.多路径是用于访问共享存储的,可防止单点故障导致服务不可用。

λ12.2.设备映射多路径允许节点通过多条路径访问存储,多路径支持FC、iSCSI、GNBD等存储架构λ五、以太通道的绑定1.功能1.1.防止单点故障λ1.2.实现负载均衡λ1.3.多网卡绑定成单一的虚拟网卡λ2.以太通道绑定的配置2.1.配置加载bonding内核模块,使得支持绑定功能;λ[root@station9 ~]# vim /etc/modprobe.confalias bond0 bondingoptions bond0 mode=1 miimon=100 use_carrier=0#mode=0/1,0表示提供容错和负载均衡的功能,1表示只提供容错的功能;mode =1时可以使用primary参数指定哪块网卡作为主要优先的。

miimon=100表示连接监控的频度,单位为毫秒;use_carrier表示如何确定连接状态;0内核检测,1由mii-tool或ethtool外部工具检测。

2.2.配置网卡配置文件:λ[root@station9 ~]# cd /etc/sysconfig/network-scripts/假设要将eth0和eth1绑定成bond0,则作如下修改:[root@station9 ~]# vim ifcfg-eth0DEVICE=eth0MASTER=bond0SLAVE=yesONBOOT=yesBOOTPROTO=static[root@station9 ~]# vim ifcfg-eth1DEVICE=eth1MASTER=bond0SLAVE=yesONBOOT=yesBOOTPROTO=static[root@station9 ~]# vim ifcfg-bond0DEVICE=bond0IPADDR=192.168.32.39NETMASK=255.255.255.0GATEWAY=192.168.32.254ONBOOT=yesBOOTPROTO=static2.3.重启网络:[root@station9 ~]#/etc/init.d/network restart六、集群的安全cluser security1.集群间多有节点的通信默认都经过了加密,OpenAIS使用集群名作为密钥,但这并不是彻底安全的策略。

相关文档
最新文档