GPFS文件系统安装配置和测试
GPFS安装、配置、管理

合用标准文档GPFS的安装、配置、管理合用标准文档目录1 GPFS安装、配置、管理和保护 (1)1.1GPFS安装 (1)1.2GPFS配置 (1)1.2.1集群节点配置 (1)1.2.2G PFS NSD磁盘配置 (1)1.2.3优化 GPFS集群配置 (3)1.2.4创立 GPFS文件系统 (4)1.2.5配置改正 (4)1.3GPFS管理和保护 (8)1GPFS安装、配置、管理和保护本局部围绕 XX公司 HPIS系统实质情况,描述 GPFS的安装、配置过程,以及 GPFS 管理和保护方法。
1.1 GPFS安装GPFS 3.3 及补丁使用 AIX 系统标准 installp方式安装,安装命令比方:#installp -agYXd . all查察安装结果 ;#lslpp -l |grep gpfsgpfs.base 3.3.0.16COMMITTED GPFS File Managergpfs.base 3.3.0.16COMMITTED GPFS File Managergpfs.docs.data 3.3.0.1 COMMITTED GPFS Server Manpages and1.2 GPFS配置1.2.1 集群节点配置准备 node 列表文件,节点属性: manager或 client,quorum或nonquorum #more /home/GPFS/nodeshpis1:manager-quorumhpis2:manager-quorum创立 RAC两节点的 GPFS集群#mcrcluster -N /home/GPFS/nodes -p hpis1 -s hpis2 -r /usr/bin/rsh -R /usr/bin/rcp -C cls_hpis-p,-s 分别表示主,辅集群管理效劳器-r /usr/bin/rsh -R /usr/bin/rcp表示rsh,rcp方式进行集群管理时使用rsh,rcp 管理方式;也可以经过配置ssh,使用 ssh,scp 方式查察集群配置#mmlscluster1.2.2 GPFS NSD磁盘配置因为 RAC只有两个 Server 节点,为保证 GPFS文件系统的高可用性,需要将两台 Server 均设为 quorum 节点,同时从两个储藏和一台Server 的当地盘中分别取一个盘作为tiebreaker quorum Disk。
IBM GPFS并行文件系统安装与配置

IBM GPFS文件系统安装与配置目录1概述 (4)1.1IBM GPFS功能介绍 (4)1.2GPFS体系架构介绍 (2)1.3GPFS的优势 (5)2GPFS安装配置步骤 (6)2.1GPFS安装准备 (6)2.2GPFS的安装软件 (6)2.3配置GPFS集群 (6)1概述1.1IBM GPFS功能介绍GPFS (General Parallel File System) 是IBM 公司第一个共享文件系统,起源于IBM SP 系统上使用的虚拟共享磁盘技术( VSD )。
作为这项技术的核心,GPFS 是一个并行的磁盘文件系统,它保证在资源组内的所有节点可以并行访问整个文件系统。
而且针对此文件系统的服务操作,可以同时安全地在使用此文件系统的多个节点上实现。
GPFS 允许客户共享文件,而这些文件可能分布在不同节点的不同硬盘上。
它提供了许多标准的UNIX 文件系统接口,允许应用不需修改或者重新编辑就可以在其上运行。
GPFS 也支持UNIX 文件系统的工具,即:用户可以像使用普通文件系统一样使用基于GPFS 的文件系统,唯一不同的在于管理GPFS 文件系统的命令。
GPFS 提供的文件系统操作服务可以支持并行应用和串行应用,它允许任何节点(这些节点属于同一个节点组)上的并行应用同时访问同一个文件或者不同的文件。
1.2GPFS体系架构介绍GPFS 文件系统基本上由三层架构组成:磁盘,网络共享磁盘(NSD),GPFS 文件设备,如下图所示。
•磁盘GPFS 文件系统最底层的是物理磁盘设备。
原则上可以采用系统上任何块设备,包括磁盘,磁盘分区,逻辑卷。
从物理连接上来看,GPFS 支持使用所有方式连接的磁盘。
包括本地IDE 磁盘,本地SCSI 磁盘,光纤SAN 磁盘,iSCSI 磁盘,等等。
•网络共享磁盘(NSD: network share disk)NSD 是由磁盘映射出来的虚拟设备,NSD 与磁盘是一一对应的关系。
GPFS_for_linux安装与实施文档

GPFS for linux实施配置文档(Red Hat linux平台)目录1、GPFS for linux实施规划 (3)1.1 规划概要 (3)1.2 网络设计规划 (4)1.3 存储设计规划 (4)2、Linux的安装及配置 (6)2.1 制作Linux Yum源 (6)2.2使用Linux Yum源安装必备rpm包 (7)2.3Linux系统中添加网络设备 (7)3、GPFS软件的安装和准备工作 (14)3.1 必须安装的Linux RPM包 (14)2.2 软件上传至目的Linux分区 (15)2.3 在每个节点上安装GPFS软件包 (15)2.3.1 GPFS基础包安装 (15)2.3.2 GPFS升级包安装 (16)2.4 GPFS软件编译 (16)2.5 GPFS环境变量设置 (17)4、GPFS环境配置文件准备 (18)4.1、创建节点描述文件 (18)4.2、创建磁盘描述文件 (18)4.3、创建主机信任---SSH (18)4.4、确认连接磁盘 (20)5、GPFS集群配置 (21)5.1、建立集群 (21)5.1.1、创建集群 (21)5.1.2、显示配置信息 (21)5.2、创建NSD (21)5.2.1、使用mmcrnsd创建NSD (21)5.2.2、显示NSD (22)5.3、启动GPFS文件系统 (22)5.4、查看GPFS文件系统状态 (22)5.5、建立文件系统 (22)5.6、检查文件系统 (22)5.7、GPFS集群调优 (22)6、GPFS文件系统测试 (24)6.1文件系统测试 (24)6.2 高可用测试 (25)1、G PFS for linux实施规划随着客户对数据越来越高的要求,现有架构的数据传输的速度可能会在将来成为系统分析性能的瓶颈,为了解决该问题,结合IBM GPFS并行文件系统在海量文件处理方面的算法优势及x86 Linux服务器的处理性能,搭建一套测试GPFS文件系统作为数据平台,来提升数据仓库平台的数据传输性能是一个不错的选择。
GPFS文件系统的安装配置与维护

计 算 机 技 术 与 发 展
COMPUTER I CHNOLOGY AND DEVELOPMENT
Vo1.28 No.5 Mav 20l8
GPFS文 件 系统 的安 装 配 置 与 维 护
张 新 诺 ,王 彬
(国 家气象信 息 中心 ,北京 100081)
令及命 令 中各项 参数 的作 用 和使 用 方 式 ,能够 使 维 护人 员 更 好 地 了解 和维 护 GPFS文件 系 统 。同 时 ,也 对 文 件 系 统 在 Linux平台 中出现 问题 时如何 有 效使用 GPFS命令 解决 故 障 ,如何 有 效保 护 数 据安 全 和 数据 完 整性 ,及 如何 恢 复 文件 系 统
件 ,当操 作 系统或 存储 介质 发生 故 障时 ,也 会造 成 GPFS文件 系 统无 法正 常使用 。在 处理 GPFS文 件 系统故 障时 ,需要 使用
相 关命 令 并配合 不 同的参 数对 文件 系统 的相关 内容进行 配 置和创 建 。文 中的 主要 目的是 为 了说 明 GPFS文件 系 统相 关命
wit h t he releva nt commandsand different parameters.Themain purposeinthis paperisto exOainthefunction and usageof the parame-
ters intheGPFS,to makethemaintena n ce staffunder stand an d Use theGPFS better.Atthe sametime,wealso discuss how to Use GPFS comman dto solvet he problem ,how t o efect ively pr o tect dat a securit y a n d dat a integrity,and how t O r eSt Or e the norma l op e r at ion off ile
IBM GPFS配置测试

测试机器GVSHB201GVSHX301 nhy65tgbGVSHB201 nhy65tgb1、划分LUN 111 磁盘给prdcena、backupsrvprdcena_prd识别到是hdiskpower24Backupsrv识别到hdiskpoer18并分别识别PVIDchdev -l hdiskpower24 -a pv=clearchdev -l hdiskpower24 -a pv=yeschdev -l hdiskpower18 -a pv=clearchdev -l hdiskpower18 -a pv=yes2、软件安装执行如下命令将GPFS命令行工具所在目录加入shell的执行路径:export PA TH=$PATH:/usr/lpp/mmfs/bin/.profile:添加GPFS命令pathexport PATH=$PATH:/usr/lpp/mmfs/binexport WCOLL=/tmp/gpfs/gpfs_node_list需要在所有节点上执行上述安装过程。
3、准备远程命令执行和远程拷贝环境GPFS支持rsh ssh两种远程执行shell和rcp、scp两种远程拷贝工具。
GPFS默认使用rsh和rcp,下文以rsh+rcp作介绍。
3.1首先保证hosts文件里面包含所有集群节点的纪录。
3.2在.rhost文件里面增加所有集群节点的纪录。
#cat /.rhostsprdcena_prd_per +backupsrv_per +至此,rsh和rcp已能正常工作,可以用rsh hostname command 来验证配置是否正确。
4、准备集群的节点配置文件[root@GVSHB201#]vi /tmp/gpfs/nodefile#NodeName:NodeDesignations:AdminNodeNameprdcena_prd_per:manager-quorumbackupsrv_per:manager-quorum该节点配置文件每一行对应一个集群节点,每个集群节点有用减号分隔两个配置项。
GPFS安装测试记录

******G P F S安装测试记录思创数码科技股份有限公司二零零九年十月********GPFS安装测试小结1.硬件结构配置:本文主要描述基于双DS4800存储、双P570小机的GPFS的集群。
下文所涉及的全部参数设置和配置步骤源于IBM 红皮书《Deploying Oracle 10g RAC on AIX V5 with GPFS》节点使用双IBM P570小机,硬件配置8CPU、32G内存。
存储使用双IBM DS4800存储,存储A(DS4800A)分配数据磁盘、仲裁磁盘个两块、存储B(DS4800B)分配两块数据磁盘一块仲裁磁盘。
网络每节点分别连接到公网和私网,私网用于RAC内部通讯和GPFS数据传输,公网用于实际对外应用接口。
下图是安装测试的基本环境图示。
2.操作系统配置:系统包安装要求bos.adt.basebos.adt.libbos.adt.libmbos.perf.libperfstatbos.perf.perfstatbos.perf.proctoolsrsct.basic.rtepat.clients.rtexlC.aix50.rte 7.0.0.4 or 8.xxxxlC.rte 7.0.0.1 or 8.xxxbos.adt.profabos.cifs_fs(注:由于没有GPFS for aix6.0的官方说明,上面提出的系统包是针对AIX V5.3 系统的,但经过验证GPFS for aix6.0也同样适用)主机信任关系ORACLE RAC和GPFS集群都要求配置SSH或RSH,本文将采用RSH信任方式。
编辑或修改以下文件:_ /etc/hosts_ /etc/hosts.equiv_ Oracle或root 用户的~/.rhosts 文件文件内容大致如下:---------/etc/hosts--------# Public network10.158.116.140 ncst0110.158.116.141 ncst02# GPFS interconnect network192.168.100.1 ncst01-gpfs192.168.100.2 ncst02-gpfs/etc/hosts.equiv和~/.rhosts文件内容ncst01ncst02ncst01-gpfsncst02-gpfs3. GPFS安装配置:IBM的GPFS文件系统提供并行和串行应用。
GPFS安装手册

目录GPFS 基本安装过程 (1)GPFS performance and Infiniband: (5)adding extra subnets(可选): (7)与LUSTRE文件系统共存环境搭建: (8)Gpfs 基本卸载过程 (9)GPFS 基本安装过程同步所有服务器时间,系统时间1.准备并安装rpm包,升级包2.准备依赖包,cp -rf /root/GPFS/6 /var/cache/yum/x86_64/3.yum -y install rsh ; yum -y install libc.so.6 ; yum -y install ksh ; yum -y install libstdc++.so.5;yum -y install compat-libstdc++-33-3.2.3-69.el6.x86_644.cd /root/GPFS;rpm -ivh *.rpm ; rpm -Uvh update/*.rpm5.Linux客户端ssh无密码登录ssh-keygen -t rsa会创建/root/.ssh/id-ras.pub id-ras公钥:/root/.ssh/id-ras.pub私钥:/root/.ssh/id-ras把公钥复制到authorized_keys ,并复制/root/.ssh到所有机器上的/root/目录.If your GPFS cluster is configured to use SSH/SCP, it is suggested that you increase the value of MaxStartups in sshd_config to at least 1024.6.设置环境变量vi /root/.bash_profilePATH=$PATH:/usr/lpp/mmfs/bin启用环境变量source /root/.bash_profile7.编译安装cd /usr/lpp/mmfs/srcmake Autoconfigmake Worldmake InstallImagescd /usr/lpp/mmfs/src; make LINUX_DISTRIBUTION=REDHAT_AS_LINUX Autoconfig; make World;make InstallImagesWhen using GPFS 3.2.1 and earlier there is not an rpm option to the GPFS GPL build process. In this case to distribute the kernel module binaries you can copy the files manually. You can see alist of these files when the make InstallImages process completes. These files are mmfslinux, mmfs26, lxtrace, dumpconv, tracedevcd, and they need to be copied to the /usr/lpp/mmfs/bin directory on the other nodes.命令如下:mkdir /tmp/gpfs_cmds/cp -f /usr/lpp/mmfs/src/bin/mmfslinux /tmp/gpfs_cmds/mmfslinuxcp -f /usr/lpp/mmfs/src/bin/mmfs26 /tmp/gpfs_cmds/mmfs26cp -f /usr/lpp/mmfs/src/bin/tracedev /tmp/gpfs_cmds/tracedevcp -f /usr/lpp/mmfs/src/bin/lxtrace.sial /tmp/gpfs_cmds/lxtrace.sialcp -f /usr/lpp/mmfs/src/bin/mmdumpfilocks.sial /tmp/gpfs_cmds/mmdumpfilocks.sialcp -f /usr/lpp/mmfs/src/bin/lxtrace /tmp/gpfs_cmds/lxtracecp -f /usr/lpp/mmfs/src/bin/dumpconv /tmp/gpfs_cmds/dumpconvcd /tmptar -cf gpfs_cmds.tar ./gpfs_cmdson other nodes copy cmds to /usr/lpp/mmfs/bin8.创建clustermmcrcluster -N hosta:quorum,hostb:quorum -p hosta -s hostb -r /usr/bin/ssh -R/usr/bin/scp9.mmchlicense server --accept -N hosta,hostb10.(可选)修改GPFS文件,支持device-mapper设备cp /usr/lpp/mmfs/samples/nsddevices.sample /var/mmfs/etc/nsddevices修改文件使之能够输出这种格式"mapper/mpath1 dmm" ,mpath1为多路径磁盘for i in `multipath -ll | grep CERESDAT | awk '{print $1}'`doecho mapper/$i dmmdone11.NSD配置文件(dataAndMetadata、dataOnly、metadataOnly、descOnly)DiskUsageIf a value is not specified, the disk usage remains unchanged:dataAndMetadataIndicates that the disk contains both data and metadata. This is the default.dataOnlyIndicates that the disk contains data and does not contain metadata.metadataOnlyIndicates that the disk contains metadata and does not contain data.descOnlyIndicates that the disk contains no data and no file metadata. Such a disk is used solely to keep a copy of the file system descriptor, and can be used as a third failure group in certain disaster recovery configurations. For more information, see General Parallel FileSystem: Advanced Administration and search on Synchronous mirroring utilizing GPFS replication.格式:DiskName:ServerList::DiskUsage:FailureGroup:DesiredNameServerList中可指定主备nsd server,分散磁盘顺序以实现负载均衡[root@node01 ~]# cat diskdef/dev/mapper/meta01:io01:io02:metadataOnly:failgroup01:/dev/mapper/meta02:io03:io04:metadataOnly:failgroup02:12.[root@hosta ~]# vi diskdef/dev/sdc:hosta:hostb::01:/dev/sdd:hostb:hosta::02:/dev/sde:hosta:hostb::01:/dev/sdf:hostb:hosta::02:/dev/sdg:hosta:hostb::01:/dev/sdh:hostb:hosta::02:/dev/sdi:hosta:hostb::01:/dev/sdj:hostb:hosta::02:13.创建NSDmmcrnsd -F diskdef -v no(可选)创建仲裁盘:mmchconfig tiebreakerDisks="gpfs1nsd;gpfs2nsd;gpfs3nsd"14.启动GPFS,并查看启动状态mmstartup -a;mmgetstate -a15.创建文件系统mmcrfs vol_data -F diskdef -B 64K -T /vol_data -v no16.挂载文件系统mmmount vol_data -a17.(可选)变相替换磁盘过程(首先数据得有冗余,加粗字体为命令)mmchdisk vol_data stop -d gpfs12nsdmmlsdisk vol_datadisk driver sector failure holds holds storage name type size group metadata data status availability pool ------------ -------- ------ ------- -------- ----- ------------- ------------ ------------gpfs6nsd nsd 512 1 Yes Yes ready up system gpfs7nsd nsd 512 2 Yes Yes ready up system gpfs8nsd nsd 512 1 Yes Yes ready up system gpfs9nsd nsd 512 2 Yes Yes ready up system gpfs10nsd nsd 512 1 Yes Yes ready up system gpfs11nsd nsd 512 2 Yes Yes ready up system gpfs12nsd nsd 512 1 Yes Yes ready down system gpfs13nsd nsd 512 2 Yes Yes ready up system vi add_diskdef/dev/sdj:hosta:hostb::01:mmcrnsd -F add_diskdefmmlsnsdFile system Disk name NSD servers---------------------------------------------------------------------------vol_data gpfs6nsd hosta,hostbvol_data gpfs7nsd hostb,hostavol_data gpfs8nsd hosta,hostbvol_data gpfs9nsd hostb,hostavol_data gpfs10nsd hosta,hostbvol_data gpfs11nsd hostb,hostavol_data gpfs12nsd hosta,hostbvol_data gpfs13nsd hostb,hosta(free disk) gpfs14nsd hosta,hostbmmadddisk vol_data -F add_diskdef -rThe following disks of vol_data will be formatted on node hosta:gpfs14nsd: size 586061784 KBExtending Allocation MapChecking Allocation Map for storage pool 'system'12 % complete on Fri Jan 4 07:11:45 2013100 % complete on Fri Jan 4 07:12:23 2013Completed adding disks to file system vol_data.mmadddisk: Propagating the cluster configuration data to allaffected nodes. This is an asynchronous process.Restriping vol_data ...Scanning file system metadata, phase 1 ...1 % complete on Fri Jan 4 07:12:37 2013100 % complete on Fri Jan 4 07:12:50 2013Scan completed successfully.Scanning file system metadata, phase 2 ...4 % complete on Fri Jan 4 07:12:53 2013100 % complete on Fri Jan 4 07:13:54 2013Scan completed successfully.Scanning file system metadata, phase 3 ...Scan completed successfully.Scanning file system metadata, phase 4 ...Scan completed successfully.Scanning user file metadata ...23.60 % complete on Fri Jan 4 07:14:16 2013 ( 487171 inodes 1702 MB)100.00 % complete on Fri Jan 4 07:14:46 2013Scan completed successfully.Done18.增加GPFS客户端节点在安装好GPFS rpm情况下(安装方式同上面所提),运行命令:mmaddnode -N client01GPFS performance and Infiniband:linux磁盘预读访问优化:for i in `ls /dev/mapper/ | grep -v control | grep -v Vol`;do blockdev --setra 1024 /dev/mapper/$i;donefor i in `ls /dev/mapper/ | grep -v control | grep -v Vol`;do blockdev --getra /dev/mapper/$i;donemmchconfig prefetchThreads=96mmchconfig worker1Threads=144maxMBpS=3200pagepool=4096MverbsPorts <IB device>verbsRdma [enable|disable][root@node009 ~]# ibstatusInfiniband device 'mlx4_0' port 1 status:default gid: fe80:0000:0000:0000:0030:4800:4413:0001base lid: 0x4bsm lid: 0x35state: 4: ACTIVEphys state: 5: LinkUprate: 20 Gb/sec (4X DDR)Infiniband device 'mlx4_0' port 2 status:default gid: fe80:0000:0000:0000:0030:4800:4413:0002base lid: 0x0sm lid: 0x0state: 1: DOWNphys state: 2: Pollingrate: 10 Gb/sec (4X)mmchconfig verbsPorts="mthca0/1 mthca0/2"mmchconfig versRdma=enableOnce these two parameters are set, if a node has these ports available they are used once the GPFS daemon has started. GPFS decides to use the IB RDMA connection instead of TCP/IP before looking at the subnets parameter. If an IB RDMA connection is available on a node it is used. If there are no IB ports available on a node then the subnets processing rules take effect.For enhanced performance when multiple verbPorts are defined on a node GPFS multiplexes the traffic over all of the available ports.[root@node009 ~]# mmchconfig verbsPorts=mlx4_0mmchconfig: Command successfully completedmmchconfig: 6027-1371 Propagating the cluster configuration data to all affected nodes. This is an asynchronous process.[root@node009 ~]# mmchconfig verbsRdma=enablemmchconfig: Command successfully completedmmchconfig: 6027-1371 Propagating the cluster configuration data to all affected nodes. This is an asynchronous process.[root@node009 ~]# mmfsadm test verbs configVERBS RDMA Configuration:Status : startedStart time : Thu May 5 11:47:45 2011mmfs verbsRDMA : enablemmfs verbsPorts : mlx4_0mmfs verbsRdmasPerNode : 0mmfs verbsRdmasPerConnection : 8mmfs verbsRdmaMinBytes : 8192mmfs verbsRdmaMaxSendBytes : 16777216mmfs verbsRdmaTimeout : 14mmfs verbsLibName : libibverbs.soibv_fork_support : trueMax connections : 65536Max RDMA size : 16777216Max RDMAs per node max : 32Max RDMAs per node curr : 32Number of Devices opened : 1Device : mlx4_0vendor_id : 713Device vendor_part_id : 25418Device mem register chunk : 8589934592 (0x200000000)Device max_sge : 28Device max_qp_wr : 16351Device max_qp_rd_atom : 16Max RDMAs per conn max : 32Max RDMAs per conn curr : 8Open Connect Ports : 1Connect port : mlx4_0/1lid : 75state : IBV_PORT_ACTIVEpath_mtu : IBV_MTU_2048[root@node009 ~]# mmfsadm test verbs connNSD Client Connections:cl nidx destination status curr RW peak RW file RDs file WRs file RD KB file WR KB idx cookie-- ----- --------------- --------------- --------- --------- ---------- ---------- ----------- ----------- ---- ------NSD Server Connections:cl nidx destination status curr rdma wait rdma rdma RDs rdma WRs rdma RDs KB rdma WRs KB idx cookie-- ----- --------------- --------------- --------- --------- ---------- ---------- ----------- ----------- ---- ------adding extra subnets(可选):mmchconfig subnets="192.168.221.0 10.141.0.0"与LUSTRE文件系统共存环境搭建:LUSTRE server端安装包会改变当前操作系统的内核,如果不改变gpfs的编译配置文件,gpfs会无法启动,配置文件名称为site.mcr,在LUSTRE 1.8和LUSTRE 2.2版本上已经验证可以正常工作。
GPFS安装手册-Windows版

PARATERA CONFIDENTIALGPFS安装手册-Windows版V1.0.0PARATERA2013/1/15目录1 配置Windows系统 (3)1.1 分配静态地址 (3)1.2 加入AD域 (3)1.3 关闭UAC (3)1.4 关闭Windows防火墙 (4)2安装基于UNIX应用程序子系统(SUA) (4)3安装GPFS (5)3.1 安装GPFS软件包 (5)3.2 安装GPFS更新包 (5)4 创建GPFS管理员账号 (6)4.1 创建一个域用户root (6)4.2 增加用户root到Domain Admins组 (6)4.3 设置root用户的家目录 (7)4.4 赋予root用户作为服务的登陆权限(所有节点执行) (7)5 配置GPFS管理服务 (9)6安装和配置OpenSSH (9)6.1 下载和安装bundle(include openssh) (9)6.2 配置节点之间的SSH无密码认 (10)7 配置GPFS (10)7.1 配置GPFS机群 (10)7.2 配置NSD (10)7.3 配置GPFS文件系统 (11)8增加x86 Linux节点到Windows机群 (11)1 配置Windows系统⏹GPFS 3.4/3.3支持的系统:Windows Server 2008 x64/Windows Server 2008 R2/Windows HPC Server 2008⏹GPFS 3.2.1支持的系统:Windows Server 2003 R21.1 分配静态地址1.安装GPFS的所有节点都需要分配静态IP地址2.Windows HPC Server的静态IP地址配置a)在所有HPCS节点,打开hosts文件%systemroot%\system32\drivers\etc\hosts:修改ManageFile = true 为ManageFile = falseb)在HPCS头结点,打开PowerShell执行以下命令, 重新开启动态DNS更新:Set-HpcNetwork –EnterpriseDnsRegistrationType WithConnectionDnsSuffix1.2 加入AD域所有在同一个GPFS机群的节点都应该在同一个AD域中。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
GPFS文件系统安装配置和测试目录GPFS文件系统安装配置和测试 (1)一、目的 (2)二、测试架构和环境 (2)三、系统安装配置 (3)1.安装前的准备: (3)2.系统和相关支持包的安装 (3)3..配置SSH 无密码登录 (3)1)编辑hosts和配置密钥 (3)2)关闭防火墙及selinux安全服务 (4)3)测试ssh无密码登录配置 (4)4.安装gpfs3.4安装包 (4)5.配置GPFS (5)1)配置集群 (5)2)配置共享盘 (6)3)编辑共享盘配置文件 (6)4)使用mmcrnsd创建NSD (7)5)授权节点license (7)6)启动gpfs 文件系统 (7)7)创建GPFS 文件系统 (8)四、优化GPFS 集群配置 (8)1.查看当前集群配置 (8)2.修改集群配置参数 (8)五、变更节点配置 (9)1.增加节点 (9)2.增加NSD (9)3.增加硬盘及NSD控制服务器 (9)4.增加硬盘到文件系统中 (9)六、测试步骤和结果 (10)测试环境: (10)具体测试过程: (10)从小文件读写测试结果总结: (11)使用大文件单个10G,进行测试: (11)大文件读写测试总结: (11)七、总结 (11)一、目的测试和验证gpfs并行文件系统功能和性能,为将来部署准备二、测试架构和环境架构图三、系统安装配置1.安装前的准备:在IBM 3512 划分3个lun,空间容量分别为:380G,88 G,30 G,映射到两台服务器确保服务器和存储连接正常确保网络连接正常2.系统和相关支持包的安装安装redhat enterprise server Linux 6.3 或6.5安装其它系统需要支持包:yum install libstdc++ compat-libstdc++-296 compat-libstdc++-33 libXp imake gcc-c++ kernel kernel-headers kernel-devel kernel-smp kernel-smp-devel xorg-x11-xauth3..配置SSH 无密码登录1)编辑hosts和配置密钥编辑hostS文件如下所示10.8.8.133 gpfs110.8.8.134 gpfs210.8.8.136 gpfs710.8.8.137 gpfs6登录到各个系统gpfs2,gpfs6,gpfs7上分别执行以下命令#ssh-keygen -t dsa在gpfs2上执行以下命令#cat ~/.ssh/id_dsa.pub > ~/.ssh/authorized_keys#ssh gpfs6 cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys#ssh gpfs7 cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys#scp ~/.ssh/authorized_keys gpfs6:~/.ssh/authorized_keys#scp ~/.ssh/authorized_keys gpfs7:~/.ssh/authorized_keys完成以后测试gpfs2,gpfs6,gpfs7连通性ssh gpfsx date注意因为版本不一致gpfs2(6.5)版本需要执行restorecon –R –v /root/.ssh2)关闭防火墙及selinux安全服务service iptables stopvi /etc/sysconfig/selinux# This file controls the state of SELinux on the system.# SELINUX= can take one of these three values:# enforcing - SELinux security policy is enforced.# permissive - SELinux prints warnings instead of enforcing.# disabled - No SELinux policy is loaded.SELINUX=disabled# SELINUXTYPE= can take one of these two values:# targeted - Targeted processes are protected,# mls - Multi Level Security protection.SELINUXTYPE=targeted3)测试ssh无密码登录配置登录gpfs1执行命令ssh gpfs6 datessh gpfs7 datessh gpfs3 date4.安装gpfs3.4安装包执行./gpfs_install-3.4.0-0_x86_64 –text-only进行安装Cd /usr/lpp/mmfsRpm –ivh *.rpmtar -zxcvf解压gpfs-3.4.0-6.x86_64.tar.gz生成升级包gpfs.basegpfs.msg.en_USgpfs.docsgpfs.gp安装所有的rpm软件包,并升级补丁Rpm –U *.rom检查GPFS软件包安装情况rpm -qa|grep gpfs增加.bash_profile PATH$PATH=$PATH:$HOME/bin:/usr/lpp/mmfs/bin编译软件cd /usr/lpp/mmfs/srcmake Autoconfigmake Worldmake InstallImages5.配置GPFS1)配置集群在gpfs7上创建集群建立文件/tmp/gpfs.nodes内容为:gpfs7:quorum-managergpfs6:quorum-manager执行命令:/usr/lpp/mmfs/bin/mmcrcluster -n /tmp/gpfs.nodes -p gpfs7 -s gpfs6 -r /usr/bin/ssh -R /usr/bin/scp显示集群信息mmlsclusterGPFS cluster information========================GPFS cluster name: dlokcluster.gpfs7GPFS cluster id: 722837121801769718GPFS UID domain: dlokcluster.gpfs7Remote shell command: /usr/bin/sshRemote file copy command: /usr/bin/scpGPFS cluster configuration servers:-----------------------------------Primary server: gpfs7Secondary server: gpfs6Node Daemon node name IP address Admin node name Designation-----------------------------------------------------------------------------------------------1 gpfs7 10.8.8.136 gpfs7 quorum-manager2 gpfs6 10.8.8.137 gpfs6 quorum-manager2)配置共享盘首先检查硬盘连接正常root@gpfs7 gpfs]# fdisk -lDisk /dev/sda: 146.2 GB, 146163105792 bytes255 heads, 63 sectors/track, 17769 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytesSector size (logical/physical): 512 bytes / 512 bytesI/O size (minimum/optimal): 512 bytes / 512 bytesDisk identifier: 0x0006222cDevice Boot Start End Blocks Id System /dev/sda1 * 1 64 512000 83 LinuxPartition 1 does not end on cylinder boundary./dev/sda2 64 17770 142224384 8e Linux LVM Disk /dev/sdb: 146.2 GB, 146163105792 bytes255 heads, 63 sectors/track, 17769 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytesSector size (logical/physical): 512 bytes / 512 bytesI/O size (minimum/optimal): 512 bytes / 512 bytesDisk identifier: 0x0003851bDevice Boot Start End Blocks Id System Disk /dev/sdc: 146.2 GB, 146163105792 bytes255 heads, 63 sectors/track, 17769 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytesSector size (logical/physical): 512 bytes / 512 bytesI/O size (minimum/optimal): 512 bytes / 512 bytesDisk identifier: 0x0004d5b33)编辑共享盘配置文件[root@gpfs7 gpfs]# vi disk_file/dev/sdh:gpfs7:gpfs6:dataAndMetadata::g1/dev/sdi:gpfs7:gpfs6:dataAndMetadata::g2/dev/sdq:gpfs7:gpfs6:dataAndMetadata::g34)使用mmcrnsd创建NSDmmcrnsd -F /tmp/gpfs_disk -v yes显示NSDMmlsnsd –m[root@gpfs6 home]# mmlsnsd -mDisk name NSD volume ID Device Node name Remarks---------------------------------------------------------------------------------------g1 0A0808885379C4F2 /dev/sdc gpfs6 server nodeg1 0A0808885379C4F2 /dev/sdh gpfs7 server nodeg2 0A0808885379C4F3 /dev/sdd gpfs6 server nodeg2 0A0808885379C4F3 /dev/sdi gpfs7 server nodeg3 0A0808885379C4F4 /dev/sdl gpfs6 server nodeg3 0A0808885379C4F4 /dev/sdq gpfs7 server node5)授权节点licensemmchlicense server --accept –N hpc1,hpc2,hpc36)启动gpfs 文件系统Mmstartup –a查看文件系统状态Mmgeststate –a[root@gpfs6 home]# mmgetstate -aNode number Node name GPFS state------------------------------------------1 gpfs7 active2 gpfs6 active3 gpfs2 active7)创建GPFS 文件系统# mmcrfs gpfsdir1 -F /home/GPFS/nsd -T /gpfsdir1 -A yes -K always -B 2m -E no -m 2 -M 2 -n 32 -Q no -r 2 -R 2 -S yes -v no注:➢其mount点为/oradata, blocksize为2m;注意此参数已经创建,不可修改,blocksize一般要参照存储端LUN设置,以获得最优性能;➢-m 2 -M 2表示写两份metadata数据,-r 2 -R 2表示写两份data数据;➢我们已经将数据盘的failgroup分别设为2、3,GPFS会自动将数据均衡写入不同failgroup中;四、优化GPFS 集群配置1.查看当前集群配置# mmlsconfig[root@gpfs6 home]# mmlsconfigConfiguration data for cluster dlokcluster.gpfs7:-------------------------------------------------myNodeConfigNumber 2clusterName dlokcluster.gpfs7clusterId 722837121801769718autoload nominReleaseLevel 3.4.0.7dmapiFileHandleSize 32pagepool 2048MadminMode centralFile systems in cluster dlokcluster.gpfs7:------------------------------------------/dev/g22.修改集群配置参数Mmchconfig pagepool=2048m五、变更节点配置1.增加节点Mmaddnode -N gpfs12.增加NSD首先编辑磁盘配置文件Vi /root/gpfs/disk_file2/dev/sdb:gpfs1::dataAndMetadata::nsd43.m增加硬盘及NSD控制服务器mmcrnsd -F /root/gpfs/disk_file2 -v no4.增加硬盘到文件系统中mmadddisk g2 -F /root/gpfs/disk_file2显示文件系统mmlsfs g2flag value description------------------- ------------------------ ------------------------------------f 32768 Minimum fragment size in bytes-i 512 Inode size in bytes-I 32768 Indirect block size in bytes-m 1 Default number of metadata replicas-M 2 Maximum number of metadata replicas-r 1 Default number of data replicas-R 2 Maximum number of data replicas -j cluster Block allocation type-D nfs4 File locking semantics in effect-k all ACL semantics in effect-n 32 Estimated number of nodes that will mount file system-B 1048576 Block size-Q none Quotas enforcednone Default quotas enabled --filesetdf No Fileset df enabled?-V 12.10 (3.4.0.7) File system version--create-time Wed May 21 15:21:30 2014 File system creation time-u Yes Support for large LUNs?-z No Is DMAPI enabled?-L 4194304 Logfile size-E Yes Exact mtime mount option-S No Suppress atime mount option-K whenpossible Strict replica allocation option--fastea Yes Fast external attributes enabled?--inode-limit 520192 Maximum number of inodes-P system Disk storage pools in file system -d g1;g2;g3;nsd4 Disks in file system-A yes Automatic mount option-o none Additional mount options-T /gpfsdir1 Default mount point--mount-priority 0 Mount priority六、测试步骤和结果测试环境:Gpfs3 ibm 3850 虚拟机,linux 6.5,本地SAS盘15k转,千兆络Gpfs6 Dell 2950 linux 6.3, 本地SAS盘15k转, 4G HBA 光纤卡Gpfs6 Dell r420 linux 6.3, 本地SAS盘15k转,4G HBA 光纤卡具体测试过程:使用相同资料(普通目录文件4G):1.从gpfs2 本地盘拷贝资料到gpfs 盘,65M/s2从gpfs7 本地盘拷贝资料到gpfs 盘,161M/s3从gpfs6本地盘拷贝资料到gpfs 盘,142M/s4.从gpfs6 gpfs盘拷贝资料到gpfs 盘不同目录122M/s5. 从gpfs6,gpfs7,拷贝同时拷贝本地盘资料到GPFS 盘,gpfs672M/s,pgfs7 98M/s6登录gpfs7,拷贝本地SAS盘资料到本地SAS盘, 60M/s从小文件读写测试结果总结:本次测试环境GPFS客户端从本地到gpfs盘拷贝资料,受限千兆网络影响只能达到65M。