GPFS简介

合集下载

最新PlatformGPFS技术指标资料

最新PlatformGPFS技术指标资料

1. 项目工作内容2.1 Platform 技术指标高性能计算中心高性能计算平台运行管理系统包含作业管理、数据管理、运行状态分析、图形显示及系统管理等功能,需要全面支持高性能计算平台管理中的各个方面,包括针对普通用户的作业提交、作业调度、数据管理、图形显示,以及针对管理员用户的集群运行状态分析、系统管理、报表生成等功能,所有功能需要能够通过网页浏览器访问方式实现。

高性能计算云平台运行的常用计算软件,包括Fluent 、dyna、fastran 、nastran、Feko、CST Matlab等以及基于MPI的自研软件等。

满足不少400个CUP 务器、2个IO节点,**加速工作站的集群资源调度分配,能够满足10时使用该平台。

高性能计算中心高性能计算平台运行管理系统及并行文件系统为成熟商业(非OEM版软件,产品具有独立知识产权。

厂家应具备多年以上行业经验,能够提供持续的产品开发和技术支持服务;在多行业拥有成功应用案例, 至少两个一百万亿次计算能力高算项目经验,并提交实际应用案例及证明材料。

要求厂商具有优秀的本地解决方案团队,包括软件架构师、软件开发人员和软件测试人员等,并可以根据用户的需要提供整体解决方案以及相应的用户化开发。

要求厂商具有强大的本地技术支持团队,包括一线技术支持、二线技术支持(源程序级问题调查)和软件维护团队(提供源程序级的问题解决方案)。

2.2 技术指标1 )资源调度与作业管理系统a)支持将所有的高性能计算平台硬件和软件资源组成一个统一的集群,实现使用、管理和维护的一体化;b)支持对集群进行扩展,包括硬件资源的扩充与软件资源的扩展;c)可以管理用户自定制的静态和动态资源,可以用于调度系统的资源匹配,比如磁盘空间,操作系统类型,应用程序许可证等;d)支持多种调度算法,提供先来先服务、优先级抢占、公平共享、节点资源独占等多种调度策略,要求提供具体的调度策略配置说明文档。

e)提供节点和队列的管理功能,提供开启和关闭功能。

GPFS

GPFS

按照 国家 电网公 司“ 十一五 ” 信息化建设 规划的总体 目标 , 辽宁省 电力有 限公 司通过 3 年 的时间 , 建成 了以统一 目录为用
p l o y me n t t o me e t b a s i c r e q u i r e me n t s , f o r t h e c o mp a n y S b u s i n e s s t o p r o v i d e s t r o n g s u p p o t r or f t h e a p p l i c a t i o n a n d d a t a s h a i r n g . Ke y wo r d s : GP FS ; T h e i n t e g r a t e d p l a t f o m ; r En t e pr r i s e p o ta r l ; Da t a — Ce n t e r
h t t p : / / w w w. d n z s . n e t . o n T e 1 : + 8 6 - 5 5 1 - 6 5 6 9 0 9 6 3 6 5 6 9 0 9 6 4
GP F S 共享 文件 系 统 在企 业 门户 系统 中应 用 的研 究
王 鸥, 赵 永 彬
( I n f o r ma t i o n a n d C o m mu n i c a t i o n B r a n c h o f L i a o n i n g E l e c t i r c P o w e r C o m p a n y L i m i t e d , S h e n y a n g 1 1 0 0 0 6 , C h i n a )
Ab s t r a c t : I n o r d e r t o i mp r o v e t h e L i a o n i n g e l e c t r i c p o w e r e n t e r p r i s e p l a t f o r m b a s e d o n t h e e f f e c t i v e i n t e g r a t i o n a n d c o mp r e h e n - s i r e u t i l i z a t i o n , a n d t h e o p e r a t i o n o f t h e c o mp a n y i s d e c i s i o n — ma k i n g p r o v i d e i n f r a s t r u c t u r e s u p p o r t , c o mb i n e d w i t h t h e e n t e pr r i s e p o r t a l s y s t e m i f l e s h a r i n g s t a b i l i t y r e q u i r e me n t s , i s d e s i g n e d a n d i mp l e me n t e d b a s e d o n G P F S i f l e s h a r i n g s y s t e m o f L i a o n i n g e l e c -

GPFS over Oracle RAC Intro

GPFS over Oracle RAC Intro

HACMP 需要接管文件系统卷组和IP地址, 只需要接管IP地址,在30秒左右。(不加启动应
接管速 在2分钟左右。(不加启动应用的 用的时间)

时间)
一个存 储损坏 时对应 用程序 的影响
两台主机同时执行数据库插入操作, 三台主机同时执行数据库插入操作,关闭一台 关闭一台存储,插入操作停顿2分 存储和一个光纤交换机,插入操作停顿20秒。 30秒。
▪ GPFS的条带化原理保证同一个GPFS下所有 磁盘的I/O负载是均衡的,没有一块磁盘会比 其它磁盘更繁忙。
▪ GPFS支持超大文件系统。GPFS2.3版本对 GPFS文件系统的大小已经没有限制,IBM实 验室测试过的GPFS文件系统大小为200T。而 在AIX5.2中,JFS2文件系统的最大尺寸为1T。
© 2005 Technical Support Service
GPFS 特点 --- 简化的管理手段
▪ GPFS自动在各个节点间同步配置文件和文件系统信息, ▪ 在同一个GPFS cluster内,对GPFS的管理可以在任一个节点上进行,
在一个节点上执行的命令将在cluster内的所有节点上生效。
▪ GPFS对NSD的访问可用通过多路径进行,可用为每个NSD定义一个Primary NSD Server和一个Secondary NSD Server。在SAN环境下,对NSD的访问, 首先通过SAN进行,如果SAN不可访问,则通过网络访问Primary NSD Server, Primary NSD Server再访问NSD。如果Primary NSD Server不可用,则由 Secondary NSD Server完成对NSD的访问。
AIX 5.3
p570-1

HACMP Daemon

GPFS安装、配置、管理

GPFS安装、配置、管理

合用标准文档GPFS的安装、配置、管理合用标准文档目录1 GPFS安装、配置、管理和保护 (1)1.1GPFS安装 (1)1.2GPFS配置 (1)1.2.1集群节点配置 (1)1.2.2G PFS NSD磁盘配置 (1)1.2.3优化 GPFS集群配置 (3)1.2.4创立 GPFS文件系统 (4)1.2.5配置改正 (4)1.3GPFS管理和保护 (8)1GPFS安装、配置、管理和保护本局部围绕 XX公司 HPIS系统实质情况,描述 GPFS的安装、配置过程,以及 GPFS 管理和保护方法。

1.1 GPFS安装GPFS 3.3 及补丁使用 AIX 系统标准 installp方式安装,安装命令比方:#installp -agYXd . all查察安装结果 ;#lslpp -l |grep gpfsgpfs.base 3.3.0.16COMMITTED GPFS File Managergpfs.base 3.3.0.16COMMITTED GPFS File Managergpfs.docs.data 3.3.0.1 COMMITTED GPFS Server Manpages and1.2 GPFS配置1.2.1 集群节点配置准备 node 列表文件,节点属性: manager或 client,quorum或nonquorum #more /home/GPFS/nodeshpis1:manager-quorumhpis2:manager-quorum创立 RAC两节点的 GPFS集群#mcrcluster -N /home/GPFS/nodes -p hpis1 -s hpis2 -r /usr/bin/rsh -R /usr/bin/rcp -C cls_hpis-p,-s 分别表示主,辅集群管理效劳器-r /usr/bin/rsh -R /usr/bin/rcp表示rsh,rcp方式进行集群管理时使用rsh,rcp 管理方式;也可以经过配置ssh,使用 ssh,scp 方式查察集群配置#mmlscluster1.2.2 GPFS NSD磁盘配置因为 RAC只有两个 Server 节点,为保证 GPFS文件系统的高可用性,需要将两台 Server 均设为 quorum 节点,同时从两个储藏和一台Server 的当地盘中分别取一个盘作为tiebreaker quorum Disk。

GPFS文件系统的安装配置与维护

GPFS文件系统的安装配置与维护

GPFS文件系统的安装配置与维护 张新诺;王彬 【期刊名称】《计算机技术与发展》 【年(卷),期】2018(028)005 【摘 要】GPFS (general parallel file system) is a mature parallel file system with the characteristics of high stability and expansibility, fast data reading and writing and many more,which is widely used in the server cluster of AIX and Linux operating system.Although the GPFS has high stability,it is a software which is run in the operating system and storage media,and when the operating system or storage media fails,it is not used properly.Dealing with the failures of GPFS,we need to configure and create related content of the file system with the relevant commands and different parameters.The main purpose in this paper is to explain the function and usage of the parame-ters in the GPFS,to make the maintenance staff understand and use the GPFS better.At the same time,we also discuss how to use GPFS command to solve the problem,how to effectively protect data security and data integrity,and how to restore the normal operation of file system,when the file system is in the Linux platform.%GPFS是一款成熟的并行文件系统,该系统具有稳定性好、扩展性高、数据读写速度快等特点,广泛应用于AIX和Linux操作系统的服务器集群中.虽然GPFS文件系统稳定性高,但GPFS文件系统是依托在操作系统和存储介质中的软件,当操作系统或存储介质发生故障时,也会造成GPFS文件系统无法正常使用.在处理GPFS文件系统故障时,需要使用相关命令并配合不同的参数对文件系统的相关内容进行配置和创建.文中的主要目的是为了说明GPFS文件系统相关命令及命令中各项参数的作用和使用方式,能够使维护人员更好地了解和维护GPFS文件系统.同时,也对文件系统在Linux平台中出现问题时如何有效使用GPFS命令解决故障,如何有效保护数据安全和数据完整性,及如何恢复文件系统的正常运行等方面进行探讨.

GPFS安装实施

GPFS安装实施

GPFS 安装实施文档
GPFS 安装配置步骤 2. 2.GPFS
2.1 GPFS 安装准备
安装 GPFS 之前必须配置: 存储到 IBM P 系列主机 并且安装多路径软件包中存储的高可用 建立主机的信任关系(使用.rhost)
2.2 GPFS 软件的安装
A. B. C. GPFS 软件放在目录:/installp 对软件解包:例如 tar -xvf gpfs.tar 通过 SMIT 安装命令进行安装
GPFS 是一种日志文件系统,为不同节点建立各自独立的日志。日志中记录 metadata 的分布,一旦节点 发生故障后,可以保证快速恢复数据。 GPFS 的 fail-over 功能通过规划,将数据分布到不同 failure group 内达到高可用性,减少单点故障的影 响。为了保证数据可用性, GPFS 在多个 failure group 内为每个数据实例做备份,即使创建文件系统时 没有要求复制, GPFS 也会自动在不同的 failure group 内复制恢复日志。 • 系统可扩展性
GPFS cluster configuration servers: ----------------------------------Primary server: Secondary server: Node bfts1 bfts2 IP address Admin node name
Daemon node name
GPFS 设备是一个可被系统挂载的文件设备,由 NSD 创建而成,可以并行的同时挂载在多个节点上。
1.3 GPFS 的优势
• 高性能 GPFS 允许在同一节点内的多进程或者应用使用标准文件系统调用,同时访问(并发,读写)同一个文 件。通过将节点内读写操作分布到多个磁盘上,大大增加了文件系统的带宽,通过整个系统的负载均衡 避免了某个磁盘过大的读写。 • 跨平台设计

GPFS 技术交流问题澄清

© 2005 Technical Support Service
Questions -- 6
▪ 6、GPFS和存储方面对于容灾的考虑 GPFS容灾可以在两个层次实现: ▪ GPFS自身的replication功能。 ▪ 与存储的PPRC/FlashCopy结合,可以实现GPFS多个站点间active-active,
3. Lock is returned to the requester
4. All further IO operations metadata and data are direct from the server that opened the file to the disk
© 2005 Technical Support Service
Q/A,THANKS
© 2005 Technical Support Service
© 2005 Technical Support Service
Questions -- 2
▪ 2、GPFS对系统性能的影响 ▪ 在GPFS集群内的所有节点上均运行GPFS进程,GPFS对系统性能的影响很小。 ▪ 消耗CPU比AIX的JFS2文件系统还要低10-12%。 ▪ 对内存消耗主要是 PagePool,这个参数值的大小可以根据应用不同而灵活调整。
系统处于相对空闲时,用户可以在已配置的硬盘上重新均衡文件系统以提高吞吐量。 ▪ 可以在不重新启动GPFS服务情况下添加新节点。
© 2005 Technical Support Service
Questions -- 5
▪ 5、GPFS的高可用性和故障恢复能力 ▪ GPFS是一种日志文件系统,为不同节点建立各自独立的日志,分散在磁盘上。日
以太网 交换机 (GPFS信令)

GPFS的日常维护管理守则

GPFS的日常维护管理守则GPFS(General Parallel File System)是一个并行文件系统,用于大规模的数据存储与管理。

在今天的文章中,我将向您介绍GPFS的日常维护管理守则,以确保系统的高效运行与可靠性。

一、备份与恢复备份文件系统是日常维护管理的重要环节。

通过定期备份文件系统数据,可以有效防止数据丢失,并为系统出现故障时提供恢复的选择。

备份可以通过将数据复制到磁盘或磁带中来实现,确保备份介质的可靠性,并存放在安全的地方。

二、监控与调优为了保证GPFS系统的稳定性和性能,应当进行实时的系统监控与调优。

监控可以通过监视系统的性能指标,如磁盘空间利用率、内存利用率等来实现。

定期进行系统性能分析并采取适当的措施,如增加存储容量、进行数据迁移等,以提高系统的吞吐量和响应时间。

三、故障排除GPFS系统可能会遇到各种故障,如节点失效、网络中断等。

在遇到故障时,需要及时排查问题并进行修复。

可以通过查看系统日志、运行诊断工具等方式来定位故障原因,并根据情况进行相应的处理措施,以减少系统停机时间和数据丢失的风险。

四、安全性管理对于GPFS系统的安全性管理至关重要。

需要采取措施保护系统免受未经授权的访问。

可以通过限制用户权限、使用访问控制列表等方式来确保数据的安全性。

同时,定期更新系统和应用程序的安全补丁,以消除已知的安全风险。

五、容量规划容量规划是日常维护管理的一项重要工作。

需要对系统的存储容量进行合理的规划和管理,以应对不断增长的数据量需求。

通过定期监测存储使用情况,并根据业务需求进行存储扩展或优化配置,以保证系统的可扩展性和平衡性。

六、软件升级与维护定期进行GPFS软件的升级和维护是系统稳定性和性能优化的关键。

及时安装最新的补丁和更新,以修复已知问题和改进系统功能。

在进行升级前,需要进行充分的测试和备份,以确保升级过程的安全性和可靠性。

七、培训与知识共享维护管理人员应定期接受GPFS系统的培训和学习,了解最新的技术和管理方法。

gpfs

Gpfs 安装步骤1 /etc/hosts#gpfs startip NSD110.66.3.99 NSD210.66.5.51 App110.66.5.52 App210.66.5.53 App310.66.5.54 App42 修改所有服务器的/.rhosts,将2个NSD服务器主机名加入Hostname1 root hostname2 root3 change_profile.sh 修改各服务器.proifle 的脚本,增加路径echo "export PATH=\$PA TH:/usr/lpp/mmfs/bin:." >> /.profile4 配置节点文件NSD1][root][/]>vi /tmp/gpfs/nodefileNSD1:quorumNSD2:quorumApp1:clientApp2:clientApp3:clientApp4:client5 清空cluster信息mmdelnode -f6 建立集群mmcrcluster -C bgbcrun -U bgbc-N /tmp/gpfs/nodefile -p NSD1 -s NSD2C bgbcrun 设定集群名称-U bgbc 定义域名-N /tmp/gpfs/nodefile 指定节点文件名-p NSD1 指定主NSD服务器为NSD1 -s NSD1 指定备NSD服务器为NSD1 7 显示clustermmlscluster8 配置GPFS 的共享盘建立NSD(Network Shared Disk)文件vi /tmp/gpfs/nsdfile添加hdisk2:NSD1:NSD2:dataAndMetadata:4 hdiskX:nodename1:nodename2: mmcrnsd -F /tmp/gpfs/nsdfile1cat nsdfile9 启动mmstartup -aGmis04 hmis 0710 创建文件系统mmcrfs /ext_datafiles ext_datafileslv -F /tmp/gpfs/nsdfile -A yes -B 64K -n 99 -v no参数含义如下:/share 文件系统mount 点名sharelv 指定文件系统lv 名-F 指定NSD 的文件名-A 自动mount 选项为yes-B 块大小为64K-n 挂载文件系统的节点估计数30个-v 校验建立磁盘是否已有文件系统为否11 建立目录App1][root][/]>mkdir /share/user1work[App1][root][/]>chown user1:bea /share/user1work[App1][root][/]>chmod 700 /share/user1work[App1][root][/]>mkdir /share/user1temp[App1][root][/]>chown user1:bea /share/user1temp[App1][root][/]> chmod 750 /share/user1temp配置GPFS 的属性配置GPFS 选项属性在节点开机后自动启动GPFS]>mmchconfig autoload=yes采用多个Quorum 盘mmchconfig singleNodeQuorum=no显示GPFS 选项属性mmlsconfig至此GPFS 的安装配置完成mmgetstate -a扩容当前文件系统.mmcrnsd 生成新的nsd盘.2.mmadddisk <filesystem> <新的nsd名>::::<failure group> -r。

GPFS的日常维护手册

G P F S 的日常维护1 主机应用的启动顺序启动GPFSmmstartup —df - /gpfsl启动HACMPsmitty clstart启动ORACLE 数据库#su -oracle$>sqlplus “/ as sysdba ” SQL>startup2 主机应用的关闭顺序关闭ORACLE 数据库#su -oracle$>sqlplus “/ as sysdba ” SQL>shutdown immediate关闭HACMPsmitty clstop关闭GPFSmmshutdown3 GPFS 的启动和关闭GPFS的启动mmstartup —GPFS的关闭mmshutdow n -a单个节点gpfs的启动和关闭mmstartup/mmshutdownGPFS的进程监控ps —f|grep mmfsd mmgetstate -a4 GPFS 的文件系统管理Mount 文件系统mount /dev/gpfs1Umount 文件系统umount /dev/gpfs1删除文件系统mmdelfsmmdelfs gpfs1mmchfsmmlsfsmmlsfs gpfs1mmdfmmdf gpfs15 GPFS 的集群管理创建gpfs cluster mmcrcluster察看gpfs cluster 配置信息mmlsclustermmlsconfig增加节点到cluster mmaddnode nodename删除节点从cluster mmdelnode nodename 注:不能是config server和NSD server 显示节点信息mmlsnode -a改变cluster 配置信息mmchcluster改变primary 和secondary config server到其他节点mmchcluster -p nodenamemmchconfigmmchconfig tiebreakerDisks="nsdName;nsdName;nsdName"6 GPFS 的磁盘管理mmcrnsdmmlsnsd mmadddisk mmdeldisk mmchdiskmmchdisk fs1 change -d "gpfs2nsd:::dataOnly"mmchnsdmmchnsd "gpfs47nsd:nodename1:nodename2"mmlsdiskmmlsdisk fs1 -d gpfs2nsdmmlsdisk fs1 -_ 7 GPFS 的日志和安装路径GPFS的安装路径/usr/lpp/mmfsGPFS的命令路径/usr/lpp/mmfs/binGPFS的日志/var/adm/ras/testsnap.gpfs 收集最全的日志信息以便技术中心对复杂的故障进行分析。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
前言
GPFS(General Parallel File System)是 IBM 公司推出的行业领先的并行分布式通 用并行集群文件系统,GPFS 从 1993 开始研发,1995 年投入商用(最早投入使用在多媒体处 理行业,所以我们现在看到 GPFS 的很多目录和命令为什么都有 MM[multimedia]两个字母, 就是根据这个背景延续下来的),其中经过了多次版本的改进和修订,到目前(2008),GPFS 的当前版本为 3.1.
通过 mmchconfig 命令可以修改集群的配置信息
启动 GPFS 启动单节点 mmstartup node1 启动多节点 mmstartup node1,node2 启动所有节点 mmstartup -a 检查节点的状态: mmgetstate –a All nodes should be Active
方案二:
在方案一的基础上,NSD 的可扩展性支持用跨越多个 SAN 的多个存储设备构建文件系统 GPFS 可以自动判断数据访问的最佳路径 每个 IO 服务器提供磁盘访问的冗余保护
方案三:
多集群挂载
GPFS 的安装
准备工作 1)安装所有的集群节点(OS,软件,补丁)和划分共享存储,配置好网络 2)确保集群中涉及到的所有的主机名都可以得到正确的解析(DNS/主机文件) 3)配置好 RSH/SSH 并确保彼此之间通信正常 4)集群中的所有主机的时钟同步(以便于后期的故障处理) 5)根据客户的资源或需求确定连接模式,比如全部采用 SAN 模式还是 NSD 模式(仅 NSD Server 通过 SAN 模式直接连接存储) 6)安装并行 shell 软件,比如 dsh 或 psh 这一步不是必须的 aix 下可以通过安装 csm.dsh fileset 安装 dsh(/opt/csm/bin/dsh ) 设置环境变量$WCOLL 指向所有的节点名 测试 dsh,比如 dsh -v date 软件安装 在所有的 GPFS 集群节点上安装 GPFS 软件,GPFS 软件包由如下组成: gpfs.base-3.1.0-7 gpfs.gpl-3.1.0-7 gpfs.msg.en_US-3.1.0-7 gpfs.docs-3.1.0-7 通过 installp 或 smit 或并行 shell 脚本在全部的节点上安装 GPFS 软件。 定义集群
什么是 GPFS
GPFS(General Parallel File System)是通用并行文件系统的缩写。 GPFS 是一种高性能的、共享磁盘的、分布式文件系统 高性能:GPFS 可以支持 1 个到上千个独立的计算机节点 可以从单个节点管理整个文件 支持 AIX,LINUX 以及混合节点环境 共享磁盘:所有的磁盘可以被所有的节点同等的访问 数据和元数据对节点的访问是相同的 任何直连节点都可以对任何磁盘进行读写 分布式:数据和元数据可以被任何一个节点来处理 所有节点都不需要经由其他节点就可以直接处理数据和元数据 消除了单一节点故障 PS:GPFS 在内部采用了分布式的 token 的管理,通过 token manger Server 的功能来统 一的对数据访问进行授权,对数据的授权可以做到数据块一级。可以保证多个节点对同一个 文件进行修改。
通过 mmcrcluster 命令定义集群
先配置 nodefile,类似如下:
vi /tmp/gpfs/nodefile lpar1:manager-quorum lpar2:manager-quorum lpar3:client lpar4:client 注意:1)一个集群中至少需要一个仲裁(quorum)节点,当一个集群中的仲裁节点少
dataStructureDump /log/mmfs
File systems in cluster : /dev/fsXBB1 /dev/fsXBB2 /dev/gpFS1 /dev/gpFS2 /dev/gpFS2reef /dev/gpFS3 /dev/gpFSreef 通过 mmchcluster 命令可以修改集群的属性
GPFS 是一个共享的磁盘文件系统,集群内的所有节点(NODE)可以并行的访问所有共享 磁盘,并通过分布式的令牌管理机制和条带化技术来管理和优化各个节点的访问。
GPFS 的应用范围非常广泛,从多节点的文件共享服务到大型的高性能计算机群,都可 以看到 GPFS 的优秀表现。GPFS 也应用在众多的企业应用系统中,比如高可用的解决方案: HACMP,ORACLE RAC,SAP 的共享文件系统等,GPFS 在这些应用里面都表现出了出色的性能 和高可用性
4
Number of remote nodes joined in this cluster: 0
Number of quorum nodes defined in the cluster: 4
Number of quorum nodes active in the clu Quorum achieved
GPFS cluster configuration servers: Primary server: Secondary server:
Node number Node name IP address Full node name Remarks 2 c5an03g 192.168.11.3 quorum node 3 c5an04g 192.168.11.4 quorum node 7 c5an08g 192.168.11.8 quorum node 8 c5an09g 192.168.11.9 quorum node 10 c5an02g 192.168.11.2 quorum node 11 c5an07g 192.168.11.7 quorum node 12 c5an06g 192.168.11.6 通过 mmlsconfig 可以看到集群的配置信息
于一半,GPFS 将无法启动。
2)在一个集群中,建议至少要有个配置信息服务器(一个主,一个备)
管理集群
通过 mmlscluster 可以看到集群的信息,比如:
root@c5an02:/root # mmlscluster
GPFS cluster information GPFS cluster name: GPFS cluster id: 13882357959982373825 GPFS UID domain: Remote shell command: /usr/bin/rsh Remote file copy command: /usr/bin/rcp
c5plnx101:~ # mmgetstate -aL -s
Node number Node name
Quorum Nodes up Total nodes GPFS state Remarks
------------------------------------------------------------------------------------
创建 GPFS 磁盘
通过 mmcrnsd 命令完成,需要一个配置文件。
通过 mmlsnsd 命令可以查看 NSD 磁盘
vi /tmp/gpfs/nsdfile root@c5an02:/u/richx/Linux/Scripts/GPFS2.3 # cat gpFS_reef.desc.orig #
quorum quorum
quorum quorum
Summary information
---------------------
Number of nodes defined in the cluster:
7
Number of local nodes active in the cluster:
DiskName:PrimaryServer:BackupServer:DiskUsage:FailureGroup:DesiredName:StoragePool /dev/vpatha:c5an02g:c5an07g::1:c5an02_r1_1 /dev/vpathb:c5an02g:c5an07g::1:c5an02_r1_2 /dev/vpathc:c5an02g:c5an07g::1:c5an02_r1_3 /dev/vpathd:c5an02g:c5an07g::1:c5an02_r1_4 /dev/vpathe:c5an07g:c5an02g::2:c5an07_r1_1 /dev/vpathf:c5an07g:c5an02g::2:c5an07_r1_2 /dev/vpathg:c5an07g:c5an02g::2:c5an07_r1_3 /dev/vpathh:c5an07g:c5an02g: :2:c5an07_r1_4
c5an03:/var/adm/ras # mmlsconfig Configuration data for cluster : clusterName clusterId 13882357959982373825 clusterType lc multinode yes autoload no useDiskLease yes maxFeatureLevelAllowed 805 maxblocksize 1024K pagepool 64M maxFilesToCache 100000
1
c5plnx101e
3
3
7
active
node
2
c5plnx102e
3
3
7
active
node
3
c5plnx103e
0
0
7
down
4
c5plnx104e
3
3
7
active
7
c5plnx107e
0
0
7
down
8
c5plnx108e
3
3
相关文档
最新文档