如何选择集群文件系统
集群的配置步骤

集群的配置步骤一、搭建集群环境的准备工作在开始配置集群之前,我们需要先进行一些准备工作。
首先,确保所有服务器都已经正确连接到网络,并且能够相互通信。
其次,确保每台服务器上已经安装了操作系统,并且操作系统版本一致。
最后,确保每台服务器上已经安装了必要的软件和工具,例如SSH、Java等。
二、创建集群的主节点1.选择一台服务器作为集群的主节点,将其IP地址记录下来。
2.登录到主节点服务器上,安装并配置集群管理软件,例如Hadoop、Kubernetes等。
3.根据集群管理软件的要求,配置主节点的相关参数,例如集群名称、端口号等。
4.启动集群管理软件,确保主节点能够正常运行。
三、添加集群的工作节点1.选择一台或多台服务器作为集群的工作节点,将其IP地址记录下来。
2.登录到工作节点服务器上,安装并配置集群管理软件,确保与主节点的版本一致。
3.根据集群管理软件的要求,配置工作节点的相关参数,例如主节点的IP地址、端口号等。
4.启动集群管理软件,确保工作节点能够正常连接到主节点。
四、测试集群的连接和通信1.在主节点服务器上,使用集群管理软件提供的命令行工具,测试与工作节点的连接和通信。
例如,可以使用Hadoop的hdfs命令测试与工作节点的文件系统的连接。
2.确保主节点能够正确访问工作节点的资源,并且能够将任务分配给工作节点进行处理。
五、配置集群的资源管理1.根据集群管理软件的要求,配置集群的资源管理策略。
例如,可以设置工作节点的CPU和内存的分配比例,以及任务的调度算法等。
2.确保集群能够合理分配资源,并且能够根据需要动态调整资源的分配。
六、监控和管理集群1.安装并配置集群的监控和管理工具,例如Ganglia、Zabbix等。
2.确保监控和管理工具能够正常运行,并能够及时发现和处理集群中的故障和问题。
3.定期对集群进行巡检和维护,确保集群的稳定和可靠性。
七、优化集群的性能1.根据实际情况,对集群的各项参数进行调优,以提高集群的性能和效率。
集群文件系统lustre的介绍及应用

科技信息
OI T论坛o
S I N E E H O O YIF R TO C E C &T C N L G N O MA I N
21年 02
第5 期
集群文件 系统 ls e ut 的介绍及应用 r
马 艳军 吕 爽 刘 一谦
f 四川 省气 象信 息 中心 四川
【 摘
成都
6 7 ) 10 1 0
【 关键词 】 集群文件 系统 ;u eMD ; S d d Ls ; SO T; b  ̄ r
I t o c i n a d Ap iat n o use l se Lusr n r du to n pl i f Cl t r Fi Sy t m c o e te
MA n jn L h a g L U Yiqa Ya -u V S u n I — in (ih a ee rlgcl nomainC nr, h n d i u n,1 0 1 Sc u nM tooo ia fr t e te C e g uSc a 6 07 ) Isr e ytm aci cuead oea oa m ca i ftelse c se l ytm a ddb .L s ec se l Ab tat1l a e ec b sss rht tr n p rt n l ehns o ut l trfess n rd ut l trfe I i i e e i m h r u i e r u i
高性能计算集群的搭建与配置技巧

高性能计算集群的搭建与配置技巧高性能计算集群是一种利用多台计算机协同工作来完成强大计算任务的解决方案。
它可以有效地提高计算效率,加快数据处理速度,并且适用于各种应用领域,如科学研究、工程设计、数据分析等。
本文将介绍高性能计算集群的搭建与配置技巧,帮助读者了解如何创建一个高效的计算环境。
1. 硬件选型与配置高性能计算集群的性能关键在于硬件的选择与配置。
首先要确定集群规模和预算,然后选择适合的服务器、网络设备和存储系统。
在选购服务器时,要考虑计算性能、内存容量、硬盘速度以及网络带宽等因素。
确保服务器之间的网络连接速度快且稳定,并采用合适的交换机和路由器来管理网络流量。
存储系统也要具备足够的容量和读写速度,以满足大规模数据存储和访问的需求。
2. 软件安装与配置高性能计算集群需要安装和配置一系列软件来实现任务调度、资源管理、数据共享等功能。
下面是一些常用的软件组件:- 操作系统:可以选择Linux发行版作为集群的操作系统,如CentOS、Ubuntu等。
这些操作系统具有良好的稳定性和可扩展性,并且有大量的软件和工具可用于集群管理和开发。
- 并行编程库:高性能计算集群通常使用并行编程来实现任务的分配和调度。
MPI(Message Passing Interface)是一种常用的并行编程库,用于实现多节点计算。
在安装MPI时,要确保版本兼容性并准确设置环境变量。
- 任务调度器:任务调度器负责分配和管理集群中的计算任务。
常用的任务调度器包括Slurm、PBS等。
在安装和配置任务调度器时,要根据实际需求设置不同的参数,如资源分配、任务优先级等。
- 分布式文件系统:为了实现集群中的数据共享和访问,需要安装和配置适当的分布式文件系统,如NFS、GlusterFS等。
这些文件系统能够提供高性能和可靠的数据存储和访问服务。
3. 网络设置与安全在搭建高性能计算集群时,网络设置和安全性非常重要。
以下是几个关键方面:- IP地址规划:根据集群规模和网络拓扑,设置合理的IP地址规划方案,确保每个节点都有唯一的IP地址和子网掩码。
RedHat GFS 集群文件系统入门和进阶 资源帖

/viewthread.php?tid=777867&extra=page %3D1%26filter%3DdigestGFS = RedHat Global File SystemGFS 的入门必读以下为入门必看- GFS 的介绍 /solutions/gfs/- RedHat杂志关于GFS的最佳实践/magazine/009jul05/features/gfs_practices/- RedHat杂志关于GFS和以太网和SAN光纤存储网的介绍/magazine/008jun05/features/gfs/- RedHat杂志关于企业如何用GFS来存储数据的介绍/magazine/009jul05/features/gfs_overview/- RedHat杂志关于用GFS来做数据共享的介绍/magazine/006apr05/features/gfs/- RedHat杂志关于RHCS集群的介绍/magazine/009jul05/features/cluster/- RedHat 官方的GFS 概述文档/whitepapers/rha/gfs/GFS_INS0032US.pdf- RedHat 关于GFS扩展性的介绍 /solutions/scaleout/- RedHat和HP提供的HP MC/SG + GFS的方案介绍/promo/hp_serviceguard/ (注意右侧的多个连接所指向的文档)- GFS 6.1U3版本的Release notes /docs/manua ... HEL4U3-relnotes.txt- GFS 6.1U2版本的Release notes /docs/manua ... HEL4U2-relnotes.txt- GFS 6.1的Release notes /docs/manua ... FS_6_1-relnotes.txt - GFS 6.1的Admin Guide /docs/manuals/csgfs/browse/rh-gfs-en/- 本版suran007 同学提供的"GFS6.1 ON RHAS4 U2安装文档" /viewthr ... &extra=page%3D1- 本版发起的"关于多台web服务器挂载GFS系统" 的讨论/viewthr ... 4&highlight=GFS- LinuxVirtualServer 站点上网友hosyp 2006-02-15 发表的"集群LVS+GFS+ISCSI+TOMCAT" /node/100- RedHat杂志关于企业如何用GFS来存储数据的介绍06年8月更新版/magazine/021jul06/features/gfs_update/- gb8007同学发起的关于安装GFS过程中kernel版本和GFS版本的冲突问题/viewthr ... &extra=page%3D1- jeepmac同学发起的关于"自己规划了一个GFS+iSCSI集群方案" /viewthr ... &extra=page%3D1- 重点推荐, RedHat GFS 综合介绍Web 录像 /f/swf/gfs/- zhangning_1999同学贡献的"用VMWARE安装配置GFS(使用DLM方法)" 原创/viewthr ... &extra=page%3D1GFS 软件介绍- RedHat GFS 的版权许可介绍A.RedHat GFS 是一个遵守GPL 开放源代码的集群文件系统B.RedHat出售GFS软件及收费的技术服务C.用户可以选择购从RedHat购买包含技术支持服务的GFS软件D.也可以直接从RedHat官方的服务器上下载rpm格式的源代码包,修改并自由使用(见下面连接)E.可以直接从RedHat CVS服务器 checkout GFS源代码(普通source file+directory).F.用户也可以通过centOS组织提供的服务器,下载已经编译成二进制可运行的GFS或源代码(见下面连接)- RedHat 官方提供的GFS软件的下载 ftp:///pub/redhat/linux/enterprise/4/en/RHGFS- CentOS 组织提供的GFS软件的下载v4 6.1 /centos/4/csgfs/- CentOS 组织提供的GFS软件的下载v3 6.0 /centos/3/csgfs/GFS 进阶应用- RedHat杂志关于GFS和NFS性能和扩展性比较的介绍/magazine/008jun05/features/gfs_nfs/- RedHat杂志关于GFS支持Oracle RAC集群的介绍/magazine/009jul05/features/gfs_oracle/- Google 可以使用的搜索关键字举例 "RedHat GFS Global file system filetype:pdf" - RedHat官方GFS 知识库 /faq/topten_78_0.shtm- RedHat 2006年峰会的GFS和集群相关的演讲稿/promo/summit/presentations/cns.htm。
多种集群文件系统的介绍及分析

多种集群文件系统的介绍及分析1.什么是集群文件系统“集群”主要分为高性能集群HPC(High Performance Cluster)、高可用集群HAC(High Availablity Cluster)和负载均衡集群LBC(Load Balancing Cluster)。
集群文件系统是指协同多个节点提供高性能、高可用或负载均衡的文件系统,消除了单点故障和性能瓶问题。
对于客户端来说集群是透明的,它看到是一个单一的全局命名空间,用户文件访问请求被分散到所有集群上进行处理。
此外,可扩展性(包括Scale-Up和Scale-Out)、可靠性、易管理等也是集群文件系统追求的目标。
在元数据管理方面,可以采用专用的服务器,也可以采用服务器集群,或者采用完全对等分布的无专用元数据服务器架构。
目前典型的集群文件系统有SONAS, ISILON, IBRIX, NetAPP-GX, Lustre, PVFS2, GlusterFS, Google File System (GFS), LoongStore, CZSS等。
2.集群文件系统的三种主流技术架构从整体架构来看,集群文件系统由存储子系统、NAS集群(机头)、客户端和网络组成。
存储子系统可以采用存储区域网络SAN、直接连接存储DAS或者面向对象存储设备OSD 的存储架构,SAN和DAS架构方式需要通过存储集群来管理后端存储介质,并以SAN文件系统或集群文件系统的方式为NAS集群提供标准文件访问接口。
在基于OSD架构中,NAS集群管理元数据,客户端直接与OSD设备直接交互进行数据访问,这就是并行NAS,即pNFS/NFSv4.1。
NAS集群是NFS/CIS网关,为客户端提供标准文件级的NAS服务。
对于SAN和DAS架构,NAS集群同时承担元数据和I/O数据访问功能,而OSD架构方式仅需要承担元数据访问功能。
根据所采用的后端存储子系统的不同,可以把集群NAS分为三种技术架构,即SAN共享存储架构、集群文件系统架构和pNFS/NFSv4.1架构。
搭建hadoop集群的步骤

搭建hadoop集群的步骤Hadoop是一个开源的分布式计算平台,用于存储和处理大规模的数据集。
在大数据时代,Hadoop已经成为了处理海量数据的标准工具之一。
在本文中,我们将介绍如何搭建一个Hadoop集群。
步骤一:准备工作在开始搭建Hadoop集群之前,需要进行一些准备工作。
首先,需要选择适合的机器作为集群节点。
通常情况下,需要至少三台机器来搭建一个Hadoop集群。
其次,需要安装Java环境和SSH服务。
最后,需要下载Hadoop的二进制安装包。
步骤二:配置Hadoop环境在准备工作完成之后,需要对Hadoop环境进行配置。
首先,需要编辑Hadoop的配置文件,包括core-site.xml、hdfs-site.xml、mapred-site.xml和yarn-site.xml。
其中,core-site.xml用于配置Hadoop的核心参数,hdfs-site.xml用于配置Hadoop分布式文件系统的参数,mapred-site.xml用于配置Hadoop的MapReduce参数,yarn-site.xml用于配置Hadoop的资源管理器参数。
其次,需要在每个节点上创建一个hadoop用户,并设置其密码。
最后,需要在每个节点上配置SSH免密码登录,以便于节点之间的通信。
步骤三:启动Hadoop集群在完成Hadoop环境的配置之后,可以启动Hadoop集群。
首先,需要启动Hadoop的NameNode和DataNode服务。
NameNode是Hadoop分布式文件系统的管理节点,负责管理文件系统的元数据。
DataNode是Hadoop分布式文件系统的存储节点,负责实际存储数据。
其次,需要启动Hadoop的ResourceManager和NodeManager服务。
ResourceManager 是Hadoop的资源管理器,负责管理集群中的资源。
NodeManager是Hadoop的节点管理器,负责管理每个节点的资源。
ProxmoxVE集群文件系统(pmxcfs)介绍

ProxmoxVE集群⽂件系统(pmxcfs)介绍Proxmox 集群⽂件系统(“pmxcfs”)是⼀个数据库驱动的⽤于存储配置⽂件的系统,使⽤ corosync 实时复制给所有集群节点。
我们⽤它来存储所有 PVE 相关的配置⽂件。
尽管⽂件系统将所有数据存储在磁盘上⼀个持久性数据库中,但数据的副本驻留在 RAM 中。
这限制了最⼤⼤⼩,⽬前为 30MB。
这仍然⾜以存储数千个虚拟机的配置。
该系统具有以下优点:将所有配置实时⽆缝复制到所有节点提供强⼀致性检查以避免重复的 VM ID当节点失去仲裁时只读corosync 集群配置⾃动更新到所有节点包括分布式锁定机制POSIX 兼容性⽂件系统基于 FUSE,因此⾏为类似于 POSIX。
但有些功能根本没有实现,因为我们不需要它们:你可以只⽣成普通的⽂件和⽬录,但不能⽣成符号链接,…你不能重命名⾮空⽬录(因为这样更容易,以保证 VM ID 是唯⼀的)。
您⽆法更改⽂件权限(权限基于路径)O_EXCL 创建不是原⼦的(就像旧的 NFS)O_TRUNC 创建不是原⼦的(FUSE 限制)⽂件访问权限所有⽂件和⽬录都归⽤户 root 所有并拥有组 www-data。
只有 root 有写权限,但组 www-data 可以读取⼤多数⽂件。
以下路径下的⽂件:/etc/pve/priv//etc/pve/nodes/${NAME}/priv/只能通过 root 访问。
技术我们使⽤ Corosync 集群引擎的集群通信,和 SQlite 数据库⽂件。
⽂件系统是在⽤户空间实现的,使⽤ FUSE 。
⽂件系统布局⽂件系统挂载在:/etc/pve⽂件符号链接⽤于调试的特殊状态⽂件 (JSON)启⽤/禁⽤调试您可以通过以下⽅式启⽤详细的系统⽇志消息:echo "1" >/etc/pve/.debug并禁⽤详细的系统⽇志消息:echo "0" >/etc/pve/.debug恢复如果您的 Proxmox VE 主机有重⼤问题,例如硬件问题,仅复制 pmxcfs 数据库⽂件 /var/lib/pve-cluster/config.db 可能会有所帮助并将其移动到新的 Proxmox VE 主机。
高可用,多路冗余GFS2集群文件系统搭建详解

⾼可⽤,多路冗余GFS2集群⽂件系统搭建详解⾼可⽤,多路冗余GFS2集群⽂件系统搭建详解2014.06标签:实验拓扑图:实验原理:实验⽬的:通过RHCS集群套件搭建GFS2集群⽂件系统,保证不同节点能够同时对GFS2集群⽂件系统进⾏读取和写⼊,其次通过multipath 实现node和FC,FC和Share Storage之间的多路冗余,最后实现存储的mirror复制达到⾼可⽤。
GFS2:全局⽂件系统第⼆版,GFS2是应⽤最⼴泛的集群⽂件系统。
它是由红帽公司开发出来的,允许所有集群节点并⾏访问。
元数据通常会保存在共享存储设备或复制存储设备的⼀个分区⾥或逻辑卷中。
实验环境:1 2 3 4 5 6 7 8[root@storage1 ~]# uname -r2.6.32-279.el6.x86_64[root@storage1 ~]# cat /etc/redhat-releaseRed Hat Enterprise Linux Server release 6.3 (Santiago) [root@storage1 ~]# /etc/rc.d/init.d/iptables status iptables: Firewall is not running.[root@storage1 ~]# getenforceDisabled实验步骤:1、前期准备⼯作0)、设置⼀台管理端()配置ssh 私钥、公钥,将公钥传递到所有节点上12 3 4 5 6 7 8 9 10 11 12 13 14[root@manager ~]# ssh-keygen \\⽣成公钥和私钥Generating public/private rsa key pair.Enter file in which to save the key (/root/.ssh/id_rsa):Enter passphrase (empty for no passphrase):……[root@manager ~]# for i in {1..6}; do ssh-copy-id -i 192.168.100.17$i; done \\将公钥传输到各节点/root/.ssh/⽬录下root@192.168.100.171's password:Now try logging into the machine, with "ssh '192.168.100.171'", and check in:.ssh/authorized_keysto make sure we haven't added extra keys that you weren't expecting..……[root@manager ~]# ssh node1 \\测试登录Last login: Sat Jun 8 17:58:51 2013 from 192.168.100.31[root@node1 ~]#1)、配置双⽹卡IP,所有节点参考拓扑图配置双⽹卡,并配置相应IP即可1 2 3 4 5[root@storage1 ~]# ifconfig eth0 | grep "inet addr" | awk -F[:" "]+ '{ print $4 }' 192.168.100.171[root@storage1 ~]# ifconfig eth1 | grep "inet addr" | awk -F[:" "]+ '{ print $4 }' 192.168.200.171……2)、配置hosts⽂件并同步到所有节点去(也可以配置DNS,不过DNS解析绝对不会有hosts解析快,其次DNS服务器出问题会直接导致节点和节点以及和存储直接不能够解析⽽崩溃)12 3 4 5 6 7 8 9[root@manager ~]# cat /etc/hosts127.0.0.1 localhost 192.168.100.102 manager 192.168.100.171 storage1 192.168.200.171 storage1 192.168.100.172 storage2 192.168.200.172 storage2 192.168.100.173 node1 192.168.200.173 node1 192.168.100.174 node2 9 10 11 12 13 14 15 16 17 18 19 20 21 22192.168.100.174 node2 192.168.200.174 node2 192.168.100.175 node3 192.168.200.175 node3 192.168.100.176 node4 192.168.200.176 node4 [root@manager ~]# for i in {1..6}; do scp /etc/hosts 192.168.100.17$i:/etc/ ; done hosts 100% 591 0.6KB/s00:00 hosts 100% 591 0.6KB/s00:00 hosts 100% 591 0.6KB/s00:00 hosts 100% 591 0.6KB/s00:00 hosts 100% 591 0.6KB/s00:00 hosts 100% 591 0.6KB/s00:003)、配置yum源(将所有节点光盘挂接到/media/cdrom,如果不⽅便,也可以做NFS,将镜像挂载到NFS⾥⾯,然后节点挂载到NFS共享⽬录中即可,注意:不同版本的系统,RHCS集群套件存放位置会有所不同,所以yum源的指向位置也会有所不同)1234 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38[root@manager ~]# cat /etc/yum.repos.d/rhel-gfs2.repo[rhel-cdrom]name=RHEL6U3-cdrombaseurl=file:///media/cdromenabled=1gpgcheck=0[rhel-cdrom-HighAvailability]name=RHEL6U3-HighAvailabilitybaseurl=file:///media/cdrom/HighAvailabilityenabled=1gpgcheck=0[rhel-cdrom-ResilientStorage]name=RHEL6U3-ResilientStoragebaseurl=file:///media/cdrom/ResilientStorageenabled=1gpgcheck=0[rhel-cdrom-LoadBalancer]name=RHEL6U3-LoadBalancerbaseurl=file:///media/cdrom/LoadBalancerenabled=1gpgcheck=0[rhel-cdrom-ScalableFileSystem]name=RHEL6U3-ScalableFileSystembaseurl=file:///media/cdrom/ScalableFileSystemenabled=1gpgcheck=0[root@manager ~]# for i in {1..6}; do scp /etc/yum.repos.d/rhel-gfs2.repo 192.168.100.17$i:/etc/yum.repos.d ; done rhel-gfs2.repo 100% 588 0.6KB/s00:00rhel-gfs2.repo 100% 588 0.6KB/s00:00rhel-gfs2.repo 100% 588 0.6KB/s00:00rhel-gfs2.repo 100% 588 0.6KB/s00:00rhel-gfs2.repo 100% 588 0.6KB/s00:00rhel-gfs2.repo 100% 588 0.6KB/s00:00[root@manager ~]# for i in {1..6}; do ssh 192.168.100.17$i "yum clean all && yum makecache"; doneLoaded plugins: product-id, security, subscription-managerUpdating certificate-based repositories.Unable to read consumer identity……4)、时间要同步,可以考虑配置NTP时间服务器,如果联⽹可以考虑同步互联⽹时间,当然也可以通过date命令设置相同时间。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
如何选择集群文件系统
本文将介绍一些常用的物理存储架构以及群集和分布式文件系统。
希望这能让你们对这类技术有一个初步的认识,以便更好地满足高使用率存储的需求。
建立集群和使用率高的数据存储解决方案有很多选择,但是要想弄清每种选择的优劣则要花点时间进行研究。
存储架构和文件系统的选择至关重要,因为大部分的存储解决方案都有严格的限制条件,需要仔细设计工作环境。
基础架构
有些读者也许希望装配一组可以并行访问同一个文件系统的服务器,而另一些读者可能想复制存储器并提供并行访问和冗余。
有两种方法可以实现多服务器访问同一个磁盘,一种方法是让那些服务器都可以看到那个磁盘,另一种方法则是通过复制。
共享磁盘结构在光纤通道SAN和iSCSI领域是最常见的结构。
配置存储系统相当简单,这样多个服务器就可以看到同一个逻辑块设备或LUN,但是如果没有群集文件系统,那么当多个服务器同时想使用那个逻辑块设备时就会出现混乱。
这个问题与使用群集文件系统有关,我们将在下文中详细介绍。
一般而言,共享磁盘系统有个弱点,那就是存储系统。
但是情况也并非总是如此,因为利用现在的技术是很难理解共享盘的概念的。
SAN、NAS设备和基于Linux系统的商品硬件可以将所有的基础磁盘实时复制到另一个存储节点,从而提供一个模拟共享盘环境。
基础模块设备被复制之后,那些节点就可以访问相同的数据,也可以运行同一个群集文件系统了,但是这种复制超出了传统共享盘的定义。
相反,不共享才是共享盘的问题所在。
连接着不同存储设备的节点会在每个模块被写入数据时将变化通知给主服务器。
现在,不共享架构仍存在于Hadoop那样的文件系统之中,那些文件系统可以在许多节点故意建立多个数据副本,从而提高性能和冗余。
而且,在不同存储设备或节点之间利用自己的存储设备进行复制的群集也可以做到不共享。
设计选择
正如我们所说的,你不能通过多个服务器访问同一个模块设备。
你听说过文件系统锁定,因此普通的文件系统并不能实现这一点就有些奇怪了。
在文件系统级别上,文件系统本身会将文件锁定以保证数据不会出错。
但是在操作系统级别上,文件系统启动程序完全可以访问基础模块设备,它们可以在基层模块设备之间自由的漫游。
大部分文件系统都会认为它们被分配了一个模块设备,而且那个模块设备也只是它们自己所有。
为了解决这个问题,集群文件系统采用了一种并行控制机制。
有些集群文件系统将把元数据保存在共享设备的一个分区里,另一些集群文件系统则会使用集中式元数据服务器来保存元数据。
不管采用哪种方案,集群中的所有节点都可以看到文件系统的状态,从而保证安全的并行访问。
然而,如果你想保证系统的高利用率和消除单点故障问题,那么采用集中式元数据服务器的解决方案就要略逊一筹了。
另一个注意事项:集群文件系统要求在节点发生故障时迅速做出反应。
如果某个节点写入错误数据或由于某种原因停止关于元数据变化的通信,其他节点必须能够将它隔离出去。
隔离可以通过多种方式来实现,最常用的方法是利用断电管理来实现。
健康的节点可以在发现问题时第一时间关闭另一个节点电源(STONITH)以保全数据。
集群文件系统词典
GFS:全局文件系统
GFS是应用最广泛的集群文件系统。
它是由红帽公司开发出来的,允许所有集群节点并行访问。
元数据通常会保存在共享存储设备或复制存储设备的一个分区里。
OCFS:甲骨文集群文件系统
从概念上来说,OCFS与GFS非常相似,现在OCFS 2已经被应用于Linux系统之中。
VMFS:VMware的虚拟计算机文件系统
VMFS是ESX服务器用来允许多个服务器访问同一个共享存储设备的集群文件系统。
这样就可以实现虚拟机在不同服务器之间的无缝迁移,因为源服务器和目标服务器都可以访问同一个存储设备。
日志是分布式的,ESX服务器之间也不会出现单节点故障。
Lustre:Sun的集群分布式文件系统。
Lustre是专门用于包含数千个节点的大型集群的分布式文件系统。
Lustre已经支持Linux 系统,但是高速计算环境之外的应用程序是有限的。
Hadoop:一个象谷歌那样使用的分布式文件系统。
这不是一个集群文件系统,但是却是一个分布式文件系统。
我们将Hadoop收录进来是因为它的应用越来越广泛,而且利用Hadoop的存储架构设计决策的组合很多。
但是默认配置下,你会在3个不同的节点上拥有3个数据副本。
一旦数据发生变化,每个数据副本都会更新,因此,从某种意义上来说,它也可以被看做是集群文件系统。
然而,Hadoop存在一个故障点隐患,即跟踪记录所有文件系统级数据的命名节点。
做出最好选择
有太多选择并不是坏事。
你可以根据执行目标选择使用合适的集群或分布式文件系统以及存储架构。
只要有计划地使用,所有这些文件系统都可以发挥出应有的作用。