nfs 集群 方案

nfs 集群方案

NFS集群方案

NFS(Network File System)是一种基于网络的文件系统,它允许不同的计算机通过网络共享文件和目录。NFS集群方案是一种基于NFS技术的集群存储方案,通过将多台服务器组成一个集群,实现文件系统的高可用性和可扩展性。

一、NFS集群的概念和原理

NFS集群是一组具有相同文件系统的服务器,通过共享文件和目录来提供高可用性和可扩展性。其中一台服务器被指定为主服务器,负责处理客户端的文件访问请求,而其他服务器则作为备份服务器,当主服务器发生故障时接管其功能。

NFS集群的原理是通过共享存储空间,将文件系统同时挂载到多台服务器上,实现数据的高可用性和负载均衡。当客户端请求访问文件时,可以通过负载均衡策略将请求转发给主服务器或备份服务器,从而提高系统的性能和可靠性。

二、NFS集群的部署和配置

1. 准备服务器:选择适当的硬件设备作为服务器,安装操作系统和NFS软件。

2. 配置网络:确保集群中的各个服务器能够互相通信,并设置固定的IP地址。

3. 安装NFS软件:在每台服务器上安装NFS软件,并进行基本的配置,如指定共享目录和访问权限。

4. 配置NFS服务:在主服务器上配置NFS服务,包括导出共享目录和设置访问控制列表(ACL)等。

5. 挂载文件系统:在备份服务器上挂载主服务器上导出的共享目录,确保各个服务器都能访问相同的文件系统。

6. 配置负载均衡:使用负载均衡软件或硬件设备,配置负载均衡策略,将客户端请求均匀地分发给各个服务器。

7. 测试和监控:对NFS集群进行测试,检查文件系统的正常访问和负载均衡的效果,同时设置监控系统,及时发现和处理故障。

三、NFS集群的优势和应用

1. 高可用性:NFS集群通过备份服务器实现主服务器的冗余,当主服务器发生故障时,备份服务器可以无缝接管其功能,确保系统的持续可用性。

2. 可扩展性:NFS集群可以根据需求动态地添加或移除服务器,实现系统的水平扩展,提高文件系统的存储容量和处理能力。

3. 负载均衡:通过负载均衡策略,NFS集群可以将客户端请求均匀地分发给各个服务器,提高系统的性能和响应速度。

4. 灵活性:NFS集群可以支持不同类型的客户端,包括Linux、Unix和Windows等操作系统,提供统一的文件共享服务。

5. 数据一致性:NFS集群通过文件锁定和同步机制,保证多个客户端对同一文件的访问是有序的,避免数据的冲突和损坏。

NFS集群方案在许多领域都有广泛的应用,包括云计算、大数据分析、虚拟化环境等。它可以提供高可用性和可扩展性的文件共享服务,满足不同规模和需求的企业和组织。同时,NFS集群方案也需要合理的设计和配置,以确保系统的稳定性和安全性。

总结:NFS集群方案是一种基于NFS技术的集群存储方案,通过多台服务器共享文件和目录,实现高可用性和可扩展性。通过合理的部署和配置,可以提供高性能和可靠的文件共享服务,满足企业和组织对数据存储和访问的需求。同时,NFS集群方案也需要定期测试和监控,及时发现和处理故障,保证系统的正常运行。

双机集群方案

双机集群方案 引言 随着计算机系统的需求不断增长,单一服务器无法满足高可用性和高性能的要求。为了解决这个问题,双机集群成为了一种常见的解决方案。双机集群通过将两台服务器(通常称为主节点和备节点)连接在一起,实现了高可用性和负载均衡。本文将介绍双机集群方案的基本原理、优势和实施步骤。 基本原理 双机集群方案的基本原理是通过将两台服务器连接在一起,实现故障切换和负载均衡。主节点负责处理用户请求,而备节点则监控主节点的状态。当主节点发生故障时,备节点会自动接管原先主节点的工作,确保服务的持续可用性。 在双机集群中,通常使用一个共享存储设备来存储应用程序和数据。这个共享存储设备可以是一个网络存储设备(如NAS或SAN),也可以是直接连接到两台服务器的磁盘阵列。两台服务器可以通过网络协议(如NFS或iSCSI)访问这个共享存储设备,以保证数据的一致性。 优势 双机集群方案具有许多优势,以下是一些主要的优势: 1.高可用性:双机集群方案提供了高可用性,即使一台服务器发生故 障,系统仍然可以继续运行。这通过备节点自动接管主节点的工作来实现。 2.负载均衡:双机集群方案能够将用户请求均匀地分配给主节点和备 节点,以避免单一服务器的性能瓶颈。 3.性能优化:双机集群方案能够通过增加服务器的数量来提高系统的 性能。当负载增加时,可以轻松地添加更多的服务器来满足需求。 4.故障恢复:双机集群方案能够快速恢复系统正常运行的能力。当主 节点发生故障时,备节点会自动接管工作,减少系统停机时间。 实施步骤 实施双机集群方案需要以下几个步骤: 1.选型:选择适合自己需求的双机集群方案。根据应用程序的类型和 规模,选择合适的硬件和软件组件。

网络文件系统

网络文件系统 网络文件系统,英文Network File System(NFS)。是由SUN公司研制的UNIX表示层协议(pressentation layer protocol),能使使用者访问网络上别处的文件就像在使用自己的计算机一样。NFS是基于UDP/IP协议的应用,其实现主要是采用远程过程调用RPC机制,RPC提供了一组与机器、操作系统以及低层传送协议无关的存取远程文件的操作。RPC采用了XDR的支持。XDR是一种与机器无关的数据描述编码的协议,他以独立与任意机器体系结构的格式对网上传送的数据进行编码和解码,支持在异构系统之间数据的传送。 ①提供透明文件访问以及文件传输; ②容易扩充新的资源或软件,不需要改变现有的工作环境; ③高性能,可灵活配置。 [1]网络文件系统(NFS)是文件系统之上的一个网络抽象,来允许远程客户端以与本地文件系统类似的方式,来通过网络进行访问。虽然NFS 不是第一个此类系统,但是它已经发展并演变成UNⅨ? 系统中最强大最广泛使用的网络文件系统。NFS 允许在多个用户之间共享公共文件系统,并提供数据集中的优势,来最小化所需的存储空间。 NFS与以往一样有用并在不断演变 网络文件系统(NFS)从1984 年问世以来持续演变,并已成为分布式文件系统的基础。当前,NFS(通过pNFS 扩展)通过网络对分布的文件提供可扩展的访问。探索分布式文件系背后的理念,特别是,最近NFS 文件进展。 NFS 的简短历史 第一个网络文件系统—称为File Access Listener —由Digital Equipment Corporation(DEC)在1976 年开发。Data Access Protocol(DAP)的实施,这是DECnet 协议集的一部分。比如TCP/IP,DEC 为其网络协议发布了协议规范,包括DAP。 NFS 是第一个现代网络文件系统(构建于IP 协议之上)。在20 世纪80 年代,它首先作为实验文件系统,由Sun Microsystems 在内部完成开发。NFS 协议已归档

分布式文件系统MFS(moosefs)实现存储共享

由于用户数量的不断攀升,我对访问量大的应用实现了可扩展、高可靠的集群部署(即lvs+keepalived的方式),但仍然有用户反馈访问慢的问题。通过排查个服务器的情况,发现问题的根源在于共享存储服务器NFS。在我这个网络环境里,N个服务器通过nfs方式共享一个服务器的存储空间,使得 NFS服务器不堪重负。察看系统日志,全是nfs服务超时之类的报错。一般情况下,当nfs客户端数目较小的时候,NFS性能不会出现问题;一旦NFS服务器数目过多,并且是那种读写都比较频繁的操作,所得到的结果就不是我们所期待的。 下面是某个集群使用nfs共享的示意图: 这种架构除了性能问题而外,还存在单点故障,一旦这个NFS服务器发生故障,所有靠共享提供数据的应用就不再可用,尽管用rsync方式同步数据到另外一个服务器上做nfs服务的备份,但这对提高整个系统的性能毫无帮助。基于这样一种需求,我们需要对nfs服务器进行优化或采取别的解决方案,然而优化并不能对应对日益增多的客户端的性能要求,因此唯一的选择只能是采取别的解决方案了;通过调研,分布式文件系统是一个比较合适的选择。采用分布式文件系统后,服务器之间的数据访问不再是一对多的关系(1个NFS服务器,多个NFS 客户端),而是多对多的关系,这样一来,性能大幅提升毫无问题。 到目前为止,有数十种以上的分布式文件系统解决方案可供选择,如 lustre,hadoop,Pnfs等等。我尝试了 PVFS,hadoop,moosefs这三种应用,参看了lustre、KFS等诸多技术实施方法,最后我选择了moosefs(以下简称MFS)

这种分布式文件系统来作为我的共享存储服务器。为什么要选它呢?我来说说我的一些看法: 1、实施起来简单。MFS的安装、部署、配置相对于其他几种工具来说,要简单和容易得多。看看lustre 700多页的pdf文档,让人头昏吧。 2、不停服务扩容。MFS框架做好后,随时增加服务器扩充容量;扩充和减少容量皆不会影响现有的服务。注:hadoop也实现了这个功能。 3、恢复服务容易。除了MFS本身具备高可用特性外,手动恢复服务也是非常快捷的,原因参照第1条。 4、我在实验过程中得到作者的帮助,这让我很是感激。 MFS文件系统的组成 1、元数据服务器。在整个体系中负责管理管理文件系统,目前MFS只支持一个元数据服务器master,这是一个单点故障,需要一个性能稳定的服务器来充当。希望今后MFS能支持多个master服务器,进一步提高系统的可靠性。 2、数据存储服务器chunkserver。真正存储用户数据的服务器。存储文件时,首先把文件分成块,然后这些块在数据服务器chunkserver之间复制(复制份数可以手工指定,建议设置副本数为3)。数据服务器可以是多个,并且数量越多,可使用的“磁盘空间”越大,可靠性也越高。 3、客户端。使用MFS文件系统来存储和访问的主机称为MFS的客户端,成功挂接MFS文件系统以后,就可以像以前使用NFS一样共享这个虚拟性的存储了。 元数据服务器安装和配置

基于 CentOS 5.5高可用性解决方案(cluster+http+NFS)

基于 CentOS 5.5 的高可用性解决方案 一.实验环境 1.在Windows Server 2008 R2 X64操作系统下,安装Hyper-v服务,建立3个 CentOS 5.5虚拟机: c1:172.20.20.169 luci&ricci c2:172.20.20.168 ricci cs:172.20.20.171 NFS Server(shared storage) 拓扑图如下所示: 图1-1 实验拓扑图 2. Hyper-v的问题:在Hyper-v里创建一台linux虚拟机,需要移除默认的网卡,然后在添加硬件里,添加旧版本的网络适配器,否则在linux系统里,识别不到网卡。 远程桌面到Windows Server 2008,来管理Hyper-v里的虚拟机时,会有鼠标无法使用的问题,这时候需要登陆到公司的VPN,使用VNC和SSH来管理虚拟机; VNC: 1)添加VNC用户和设置密码 c1@centos ~]# vi /etc/sysconfig/vncservers # Uncomment the line below to start a VNC server on display :1 # as my 'myusername' (adjust this to your own). You will also # need to set a VNC password; run 'man vncpasswd' to see how # to do that. #

# DO NOT RUN THIS SERVICE if your local area network is # untrusted! For a secure way of using VNC, see # . # VNCSERVERS="1:myusername" VNCSERVERS="1: root" # VNCSERVERARGS[1]="-geometry 800x600" VNCSERVERARGS[1]="-geometry 1024x768" 2)设置VNC用户的密码: [c1@centos ~]$ vncpasswd Password: Verify: 3)开启VNC服务service vncserver start 在非root用户下/sbin/service vncserver start 4)设置VNC连接显示X界面: [c1@centos ~]$ cd ~/.vnc/ [c1@centos .vnc]$ vi xstartup #!/bin/sh # Uncomment the following two lines for normal desktop: #unset SESSION_MANAGER #e xec /etc/X11/xinit/xinitrc [ -x /etc/vnc/xstartup ] && exec /etc/vnc/xstartup [ -r $HOME/.Xresources ] && xrdb $HOME/.Xresources xsetroot -solid grey vncconfig -iconic & #xterm -geometry 80x24+10+10 -ls -title "$VNCDESKTOP Desktop" & #startkde & #kde desktop /注销该两行 #twm & #Text interface gnome-session & 5)重启VNC服务:service vncserver restart 非root用户:/sbin/service vncserver restart 6)登录到VNC server中:172.20.20.169:1 :1即第1步中设置的root用户。 SSH:在使用SSH secure shell乱码问题 修改centos的/ect/sysconfig/i18n内容为: LANG="zh_CN.GB18030" LANGUAGE="zh_CN.GB18030:zh_CN.GB2312:zh_CN" SUPPORTED="zh_CN.GB18030:zh_CN:zh:en_US.UTF-8:en_US:en" SYSFONT="latarcyrheb-sun16" 二.前期准备 1. 关闭c1,c2 ,cs防火墙和Selinux. 2.配置c1,c2的hosts文件,将以下内容添加到hosts文件中。 172.20.20.169 c1

集群存储

集群存储 集群存储是将多台存储设备中的存储空间聚合成一个能够给应用服务器提供统一访问接口和管理界面的存储池,应用可以通过该访问接口透明地访问和利用所有存储设备上的磁盘,可以充分发挥存储设备的性能和磁盘利用率。数据将会按照一定的规则从多台存储设备上存储和读取,以获得更高的并发访问性能。 与传统NAS和SAN相比集群存储的优势何在 传统的SAN与NAS分别提供的是数据块与文件两个不同级别的存储服务,集群存储也分为提供数据块与文件两个不同级别存储服务的集群存储系统。 集群存储的优势主要体现在提高并行或分区I/O的整体性能,特别是工作流、读密集型以及大型文件的访问,通过采用更低成本的服务器来降低整体成本。 SAN系统具有很高的性能,但是构建和维护起来很复杂。由于数据块和网络需求的原因,SAN系统也很难扩容。NAS系统的构建和维护虽然比较简单,但是由于其聚合设备(又叫做NAS头)是其架构上的瓶颈,造成其性能很有限。集群存储提供了SAN和NAS结构的优点。在大多数使用集群存储的案例中,随着存储系统的扩容,性能也随之提升。一个大的集群存储的性能往往胜过一个SAN系统,但是价格也会更高。集群存储系统像NAS系统一样易于构建、操作和扩容。大多数集群存储系统没有传统NAS系统的固有瓶颈。 集群存储有两种实现方式:一种是硬件基础架构加上软件;另一种是专用集群存储,是构建在NAS基础架构之上的,但是通过操作系统实现集群存储。从这个角度讲,集群存储与SAN或NAS不存在竞争关系,是实现不同存储需求的解决方案。” 集群存储和NAS的概念是在文件系统层面上的,而SAN是在LUN层面上的,集群存储可以利用SAN环境实现。因此,集群存储与SAN解决的问题不同。如果一定要比较这两者的优缺点的话,可以说SAN做到的是多个服务器节点可以同时看到SAN环境中的同一个LUN,还不能做到多服务器节点间的文件级共享。 集群存储在性能、可靠性及扩展性等多个方面都远远优于 NAS。 集群存储在部署时有没有特别要求 总体来说,部署集群存储并无特别之处。集群存储中的所有节点都必须安装好操作系统,并保障网络畅通。整套系统的配置管理一般都可以通过单一节点进行,不会像SAN那样复杂。 采用集群存储的客户一定要懂得应用,对现有的基础架构非常熟悉,因为集群存储在实施时可能要用到网络、服务器、操作系统等多种知识。在采用集群存储架构时,必须考虑以下三方面问题:存储成本对整个业务模型的影响;应用系统架构和输入/输出负载的特点;在评估集群方案时,原有系统本身的性能、成本、可用性如何。 为了尽可能减少风险,用户在部署集群存储系统时,最好与厂商的专业技术人员进行充分沟通,根据具体应用需求进行有针对性的设计和部署,这样才能达到预期效果。 如何选择集群文件系统 用户应该从自己的实际应用需求(如性能需求及可靠性需求等)出发来判断是否需要构建集群存储。在选择集群存储解决方案时,应该着重考虑避免性能瓶颈。集群存储解决方案中最容易产生性能瓶颈的地方是元数据管理服务器(Metadata Server),因为元数据服务器的数量通常都有限制,而且其工作负载又很大。另外,在方案设计和项目实施的过程中,一定要注意避免单一故障点。好的方案可以从服务器、网络及存储系统的各个方面消除单一故障点。SAN、NAS设备和基于Linux系统的商品硬件可以将所有的基础磁盘实时复制到另一个存储节点,从而提供一个模拟共享盘环境。基础模块设备被复制之后,那些节点就可以访问相同的数据,也可以运行同一个群集文件系统了,但是这种复制超出了传统共享盘的定义。相反,不共享才是共享盘的问题所在。连接着不同存储设备的节点会在每个模块被写入数据时将变化通知给主服务器。现在,不共享架构仍存在于Hadoop那样的文件系统之中,那些文件系统可以在许多节点故意建立多个数据

nfs 集群 方案

nfs 集群方案 NFS集群方案 NFS(Network File System)是一种基于网络的文件系统,它允许不同的计算机通过网络共享文件和目录。NFS集群方案是一种基于NFS技术的集群存储方案,通过将多台服务器组成一个集群,实现文件系统的高可用性和可扩展性。 一、NFS集群的概念和原理 NFS集群是一组具有相同文件系统的服务器,通过共享文件和目录来提供高可用性和可扩展性。其中一台服务器被指定为主服务器,负责处理客户端的文件访问请求,而其他服务器则作为备份服务器,当主服务器发生故障时接管其功能。 NFS集群的原理是通过共享存储空间,将文件系统同时挂载到多台服务器上,实现数据的高可用性和负载均衡。当客户端请求访问文件时,可以通过负载均衡策略将请求转发给主服务器或备份服务器,从而提高系统的性能和可靠性。 二、NFS集群的部署和配置 1. 准备服务器:选择适当的硬件设备作为服务器,安装操作系统和NFS软件。

2. 配置网络:确保集群中的各个服务器能够互相通信,并设置固定的IP地址。 3. 安装NFS软件:在每台服务器上安装NFS软件,并进行基本的配置,如指定共享目录和访问权限。 4. 配置NFS服务:在主服务器上配置NFS服务,包括导出共享目录和设置访问控制列表(ACL)等。 5. 挂载文件系统:在备份服务器上挂载主服务器上导出的共享目录,确保各个服务器都能访问相同的文件系统。 6. 配置负载均衡:使用负载均衡软件或硬件设备,配置负载均衡策略,将客户端请求均匀地分发给各个服务器。 7. 测试和监控:对NFS集群进行测试,检查文件系统的正常访问和负载均衡的效果,同时设置监控系统,及时发现和处理故障。 三、NFS集群的优势和应用 1. 高可用性:NFS集群通过备份服务器实现主服务器的冗余,当主服务器发生故障时,备份服务器可以无缝接管其功能,确保系统的持续可用性。 2. 可扩展性:NFS集群可以根据需求动态地添加或移除服务器,实现系统的水平扩展,提高文件系统的存储容量和处理能力。

NFS CephFS构建基于Ceph的NAS服务

NFS+CephFS构建基于Ceph的NAS服务 本文介绍了两种基于CephFS构建NAS的解决方案,并从架构、IO栈与性能方面比较和分析了各自特点,为读者提供参考。1 Ceph介绍Ceph是统一分布式存储系统,具有优异的性能、可靠性、可扩展性。Ceph的底层是RADOS(可靠、自动、分布式对象存储),可以通过LIBRADOS直接访问到RADOS的对象存储系统。Ceph还提供三种标准的访问接口:RBD(块设备接口)、RADOS Gateway(对象存储接口)、Ceph File System(POSIX文件接口)。对于CephFS主要由三个组件构成:MON、OSD和MDS。Ceph系统架构图2NFS协议及NAS介绍NFS是Network File System的简写,即网络文件系统,通过使用NFS,用户和程序可以像访问本地文件一样访问远端系统上的文件,而NFS客户端和NFS服务器之间正是通过NFS协议进行通信的。目前NFS协议版本有NFSv3、NFSv4和NFSv4.1,NFSv3是无状态的,NFSv4是有状态,NFSv3和NFSv4是基于Filelayout驱动的,而NFSv4.1是基于Blocklayout驱动。本文主要使用NFSv4协议。NAS(Network Attached Storage)网络存储基于标准网络协议NFSv3/NFSv4实现数据传输,为网络中的Windows / Linux / Mac OS 等各种不同操作系统的计算机提供文件共享和数据备份。NAS示意图

目前市场上的NAS存储是专门的设备,成本较高,且容量不易动态扩展,数据高可用需要底层RAID来保障。下面将介绍基于CephFS的NAS解决方案,在成本、容量扩展性与高可用方面,较传统NAS有优势。3CephFS的部署首先介绍部署CephFS的过程,为了展示功能及原理,本文使用linux-fedora24虚拟机建立单点的ceph(V10.2.2)环境,使用一个OSD存储、一个MON和一个MDS。首先安装ceph-deploy(v1.5.31)工具和CephFS组件,并创建部署集群目录。由于本文只使用1个OSD,因此修改ceph.conf 文件,增加以下两行:接下来创建mon、osd、mds:至此,CephFS集群就搭建好了,查看集群状态ceph -s后的输出如下:4两种导出CephFS作为nfs-server的方法Ceph集群提供了ceph-fuse客户端访问CephFS,用户先在平台上安装ceph-fuse软件包,然后拷贝集群的 ceph.client.admin.keyring到本机的/etc/ceph目录下,然后执行:这样,用户就能访问CephFS中的文件。但是由于一些平台的软件环境以及依赖库的限制,无法安装ceph-fuse 客户端软件,而无法访问CephFS。下面将提供其他两种访问CephFS的方案。方案一ceph-fuse 和nfsd首先需要通过ceph-fuse将CephFS挂载到拟作为NFS服务器的主机目录上,然后在/etc/exports中添加如下内容:*注意:此处XXX为ceph集群的id:

集群NAS技术架构

1 什么是集群NAS? 集群(Cluster)是由多个节点构成的一种松散耦合的计算节点集合,协同起来对外提供服务。集群主要分为高性能集群HPC(High Performance Cluster)、高可用集群HAC(High Availablity Cluster)和负载均衡集群LBC(Load Balancing Cluster)。集群NAS是指协同多个节点(即通常所称的NAS机头)提供高性能、高可用或高负载均衡的NAS(NFS/CIFS)服务。 非结构化数据目前呈现快速增长趋势,IDC研究报告分析指出,到2012年非结构化数据将占到数据存储总量的80%以上。集群NAS是一种横向扩展(Scale-out)存储架构,具有容量和性能线性扩展的优势,已经得到全球市场的认可。从EMC对ISILON、HP对IBRIX、DELL 对Exanet等收购事件,以及IBM推出SONAS、NetApp发布Data ONTAP 8,都可以看出集群NAS已经成为主流存储技术之一。在国内,我们也看到UIT UFS、龙存LoongStore、九州初志CZSS、美地森YFS等集群NAS解决方案。集群NAS的未来潜在市场巨大,在高性能计算HPC、广电IPTV、视频监控、云存储等行业领域将逐步得到广泛应用。 2 集群NAS的三种主流技术架构 从整体架构来看,集群NAS由存储子系统、NAS集群(机头)、客户端和网络组成。存储子系统可以采用存储区域网络SAN、直接连接存储DAS或者面向对象存储设备OSD的存储架构,SAN和DAS架构方式需要通过存储集群来管理后端存储介质,并以SAN文件系统或集群文件系统的方式为NAS集群提供标准文件访问接口。在基于OSD架构中,NAS集群管理元数据,客户端直接与OSD设备直接交互进行数据访问,这就是并行NAS,即pNFS/NFSv4.1。NAS集群是NFS/CIS网关,为客户端提供标准文件级的NAS服务。对于SAN和DAS架构,NAS集群同时承担元数据和I/O数据访问功能,而OSD架构方式仅需要承担元数据访问功能。根据所采用的后端存储子系统的不同,可以把集群NAS分为三种技术架构,即SAN共享存储架构、集群文件系统架构和pNFS/NFSv4.1架构。 (1)SAN共享存储架构 这种架构(如图1所示)后端存储采用SAN,所有NAS集群节点通过光纤连接到SAN,共享所有的存储设备,通常采用SAN并行文件系统管理并输出POSIX接口到NAS集群。SAN并行文件系统通常需要元数据控制服务器,可以是专用的MDC,也可以采用完全分布的方式分布到SAN客户端上。NAS集群上安装SAN文件系统客户端即可实现对SAN共享存储的并发访问,然后运行NFS/CIFS服务为客户端提供服务。这里前端网络采用以太网,后面存储连接则采用SAN网络。

存储技术概述——集群存储

存储技术概述——集群存储 运用集群技术来扩展服务器的性能、容量、连通性和实用性已经没有什么可好奇的了。 然而,集群存储就是另外一回事了。 什么是集群存储 在集群里,一组独立的节点或主机可以象一个系统一样步调一致地工作。它们不仅可以共享公用的存储阵列或者SAN,也可以拥有只有一个命名空间的公用文件系统。 最近的一些案例来自Cluster File Systems、Oracle、Red Hat以及新兴的Panasas 和Spinnaker Networks公司等。Red Hat公司于去年收购了Sistina公司,该公司发布了适用于开放源码的集群Global File System。Network Appliance公司则收购了Spinnaker Networks公司,该公司目前正在使用其SpinCluster软件来改进网格战略,即对网络附加存储(NAS)以及SAN存储进行集群整合。Oracle公司也在该公司的真正应用集群(Oracle 9i RAC)上使用其Cluster File System。Cluster File Systems 公司则使用其Lustre File System来建立高性能的集群。 在一些成功案例里,单独的服务器也是通过元数据服务器或设备与存储连接,元数据服务器或设备可以对数据进行很细的分类,以使这些数据可以很容易地找到。 更好的性能是一些用户使用集群文件系统的一个关键理由。某用户目前使用Lustre File System,他们通过构建的集群来进行科学仿真和模型建立工作,如今把两个1000节点的集群用于生产系统。以前,需要在每一个集群上安装文件系统,而且当有人需要数据时,经常需要把一个文件复制到另一个集群上去,文件系统之间频繁的FTP任务对整个系统的性能造成了很大的影响。而现在他们能够随时将数据从文件系统中调出来阅读,在不影响正常仿真任务进行的同时查看系统运行结果。 集群存储产品列表 集群存储的优势 通常,集群存储总是和高性能计算联系在一起,不过事实上,集群存储正快速被主流的商业环境所采用。这些商业领域被集群存储的优点所吸引。集群存储通过采用开放访问方法,如NFS和Windows CIFS,以及使用业界标注和第三方存储,对现有的技术和协议加以利用,如以太网、光纤通卡以及InfiniBand协议。 目前,发展速度最快的集群存储解决方法可能是网络附属存储(NAS)文件服务器。企业需要摆脱单一存储结构的限制,扩展到能够对结构化和非结构化的数据进行管理。这样的需求对集群NAS技术的部署起到一定的推动作用。 集群NAS系统在许多层面都具有可扩展的优势: ? 能够提高大型的序列带宽(吞吐量)的性能,或提高小型IOPS,即每秒输入输出次数(事务型)以及元数据查找的性能;

DRBD项目实施之NFS高可用架构

DRBD项目实施之NFS高可用架构(NFS+Heartbeat+Drbd) 本博文出自51CTO博客huangbo929博主,有任何问题请进入博主页面互动讨论! 博文地址:https://www.360docs.net/doc/9119148297.html,/8355508/1587880 由于目前线上的两台NFS服务器,一台为主,一台为备。主到备的数据同步,靠rsync来做。由于数据偏重于图片业务,并且还是千万级的碎图片。在目前的业务框架下,NFS 服务是存在单点的,并且数据的同步也不能做完全实时性,从而导致不能确保一致性。因此,出于对业务在线率和数据安全的保障,目前需要一套新的架构来解决 NFS 服务单点和数据实时同步的问题。 然后,就没有然后了。 下面是一个丑到爆的新方案架构图,已经在公司测试环境的部署,并且进行了不完全充分的测试。 架构拓扑: 简单描述: 两台 NFS 服务器,通过 em1 网卡与内网的其他业务服务器进行通信,em2网卡主要负责两台 NFS 服务器之间心跳通信,em3网卡主要负责drbd数据同步的传输。 前面的2台图片服务器通过 NFS 集群提供出来的一个VIP 192.168.0.219 来使用 NFS 集群服务。 一、项目基础设施及信息介绍 1、设备信息 1.现有的两台 NFS 存储服务器的硬件配置信息: 2. CPU: Intel(R) Xeon(R) CPU E5-2609 0 @ 2.40GHz 3. MEM: 16G 4. Raid: RAID 1

5. Disk: SSD 200G x 2 6.网卡:集成的 4 个千兆网卡 Link is up at 1000 Mbps, full duplex 7.前端两台静态图片服务器硬件配置信息: 8.略 2、网络 1.浮动 VIP : 19 2.168.0.219 # 漂浮在M1和M2上,负责对外提供服务 2.现有的两台 NFS 存储服务器的网络配置信息: 3.主机名:M1.redhat.sx 4. em1:192.168.0.210 内网 5. em2:172.1 6.0.210 心跳线 6. em3:172.16.100.210 DRBD千兆数据传输 7.主机名:M2.redhat.sx 8. em1:192.168.0.211 内网 9. em2:172.16.0.211 心跳线 10. em3:172.16.100.211 DRBD千兆数据传输 3、系统环境 1.内核版本: 2.6.32-504.el6.x86_64 2.系统版本:CentOS 6.5 3.系统位数:x86_64 4.防火墙规则清空 5.selinux关闭 4、软件版本 1.heartbeat-3.0.4- 2.el6.x86_64 2.drbd-8.4.3 3.rpcbind-0.2.0-11.el6.x86_64 4.nfs-utils-1.2.3-54.el6.x86_64 二、基础服务配置 这里仅以 M1 服务的配置为例,M2 服务器配置与此相同。 1、配置时间同步 M1端: 1.[root@M1 ~]# ntpdate https://www.360docs.net/doc/9119148297.html, 2.12 Nov 14:45:15 ntpdate[27898]: adjust time server 42.96.167.209 offset 0.044720 sec

高性能计算存储方案设计

高性能计算存储项目解决方案

目录 第一章HPC存储需求分析 (3) 第二章HPC存储系统设计 (3) 2.1集群存储高性能 (4) 2.2集群存储高可用 (8) 2.3集群存储便于管理 (13) 2.4集群存储对于多网段高性能计算的支持方案 (16) 2.5集群存储对于分层存储支持方案 (17) 第三章ISILON集群存储特征 (19) 3.1开放式架构 (19) 3.2分布式操作系统 (21)

第一章HPC存储需求分析根据用户应用需求,系统采用高性能机群体系结构,整机双精度浮点峰值≥100Tflops。主要运行计算流体力学,CAE,CAD 等相关应用。机群系统采用多种计算节点构成。存储总容量需求为260TB 容量,(高速存储)空间需要60TB容量,长期数据保存存储空间需要200TB 容量,IO 带宽需求3GB 。(计算性能为估算,需根据实际情况进行更新) 第二章HPC存储系统设计HPC 计算存储系统的设计要本着下面几个原则:高性能、高可靠、高安全和便于管理,应用适用性。整个高性能计算机存储系统结构如下图所示。

高性能集群系统由大规模计算节点、管理节点、和高性能集群存储组成。该项目采用Isilon集群存储系统构建存储架构。Isilon 集群存储系统自带OneFS™ 文件系统,可以支持4-10800TB的文件空间,为满足大规模高性能计算应用环境对带宽与可靠性的要求,方案中共配置18台Isilon 存储节点构成集群存储系统,可以提供3GB IO 带宽性能,提供260TB 存储容量空间,并且可以根据用户需求,按照性能和存储容量分为60TB一级存储空间和200TB二级存储空间,用户可以定制文件访问策略,进行自动或手动的数据分层存储和迁移。Isilon 集群存储通过60根1000Mb 以太网与高性能计算节点相连,通过NFS和CIFS 协议提供文件访问功能。 2.1集群存储高性能 HPC存储系统的性能指标主要取决于是存储系统的I/O性能。高

Docker Swarm集群的持久化存储方案比较与选择

Docker Swarm集群的持久化存储方案比较与 选择 在容器化技术迅速发展的今天,Docker Swarm集群已成为众多企业构建微服务架构的首选。然而,对于集群中的容器来说,持久化存储一直是一个具有挑战性的问题。本文将介绍几种常见的Docker Swarm集群的持久化存储方案,并对比它们的特点和适用场景,以帮助大家在实践中作出明智的选择。 1. 数据卷 数据卷是Docker容器中的一种持久化存储方式,它将容器内的数据保存在主机的某个特定目录中。使用数据卷,我们可以保证在容器重启或迁移时数据不会丢失。在Docker Swarm集群中,我们可以将数据卷挂载到一个或多个容器中,实现数据的共享与持久化。然而,数据卷并不能提供高可用性,当数据卷所在的主机发生故障时,数据也将不可用。 2. 网络存储 为了解决数据卷的单点故障问题,我们可以使用网络存储来实现容器间数据的共享。NFS(Network File System)是一种常见的网络存储协议,可以将文件系统通过网络共享给其他主机。在Docker Swarm集群中,我们可以将NFS挂载到容器中,实现容器间数据的共享和持久化。由于NFS是一种分布式文件系统,它可以提供高可用性和数据冗余,但同时也会带来一些性能上的损耗。 3. 分布式存储 与网络存储类似,分布式存储也可以解决数据卷的单点故障问题。与NFS不同,分布式存储通常是一种基于对象存储的解决方案,例如Ceph和GlusterFS。这些分布式存储系统将数据分散存储在多个节点上,以提供高可用性和数据冗余。在Docker Swarm集群中,我们可以将分布式存储挂载到容器中,实现数据的共享和

geoserver 集群方案

geoserver 集群方案 Geoserver集群方案 随着地理信息系统(GIS)应用的普及和规模的扩大,对于高可用性和负载均衡的需求也越来越迫切。Geoserver作为一种开源的地理信息服务器软件,为GIS应用提供了强大的地理数据发布和管理功能。为了提高Geoserver的可用性和性能,可以采用集群方案来构建一个高可用的Geoserver环境。 一、Geoserver集群概述 Geoserver集群是指通过将多个Geoserver实例组合在一起,共同提供地理数据发布和管理服务的解决方案。通过集群,可以实现负载均衡、高可用性和容错性,提升系统的性能和稳定性。 二、Geoserver集群方案 1. 负载均衡 负载均衡是指将客户端请求均匀地分发到集群中的各个Geoserver 节点上,避免单个节点负载过重而导致性能下降。常见的负载均衡解决方案有硬件负载均衡器和软件负载均衡器。 硬件负载均衡器通过硬件设备来实现负载均衡,具有高性能和稳定性的特点。常见的硬件负载均衡器有F5 BIG-IP、Cisco ACE等。 软件负载均衡器则是通过软件来实现负载均衡,常见的软件负载均

衡器有Nginx、HAProxy等。软件负载均衡器相对于硬件负载均衡器来说,成本较低且易于配置和管理。 2. 会话共享 在Geoserver集群中,为了保持用户会话的一致性,需要将用户的会话信息在集群中进行共享。常见的会话共享解决方案有基于数据库的共享和基于缓存的共享。 基于数据库的会话共享是将用户的会话信息存储在数据库中,集群中的各个节点通过访问数据库来获取会话信息。常见的数据库有MySQL、PostgreSQL等。 基于缓存的会话共享则是将用户的会话信息存储在缓存中,集群中的各个节点通过访问缓存来获取会话信息。常见的缓存软件有Redis、Memcached等。 3. 数据共享和同步 在Geoserver集群中,为了保持地理数据的一致性,需要将数据在集群节点之间进行共享和同步。常见的数据共享和同步解决方案有基于文件共享和基于数据库复制。 基于文件共享是将地理数据文件存储在共享文件系统中,集群中的各个节点通过访问共享文件系统来获取数据文件。常见的共享文件系统有NFS、GlusterFS等。

RHCE网络文件共享与NFS性能优化与容灾

RHCE网络文件共享与NFS性能优化与容灾 一、概述 在网络环境中,文件共享是非常重要的功能之一,它可以方便地实 现文件的共享和访问。而NFS(Network File System)则是一种常用的 网络文件共享协议,通过NFS可以实现在不同操作系统之间进行文件 共享。然而,为了保证NFS系统的正常运行,并提升系统的性能和可 靠性,我们需要进行一些性能优化和容灾的相关配置。 二、NFS性能优化 1. 使用合适的文件系统 在使用NFS时,选择适合的文件系统可以提升性能。常见的文件系统有Ext4、XFS等,它们对于大量小文件的读写性能较好,可以提高NFS的性能。 2. 调整NFS服务配置 通过调整NFS服务的配置参数,可以进一步提升性能。例如,可以增加NFS服务的并发客户端数目,提高文件读写的速度;调整NFS缓 存大小,减少I/O次数;调整NFS超时时间,避免请求被过早丢弃等。 3. 使用NFS缓存和预读 NFS缓存和预读可以减少对NFS服务器的访问次数,从而提升系统的性能。通过修改/etc/fstab文件,我们可以设置合适的缓存参数和预 读参数,以达到优化性能的目的。

4. 使用RPCBIND服务 RPCBIND服务是NFS服务的一个依赖组件,它用于为NFS服务提 供端口映射和远程过程调用。通过使用RPCBIND服务,可以增加 NFS服务的并发性能和稳定性。 三、NFS容灾配置 1. 配置NFS镜像 为了保证NFS服务的高可用性和容灾性,我们可以配置NFS镜像,即将一个NFS服务器的数据复制到另一个NFS服务器上。通过配置NFS镜像,即使其中一个NFS服务器出现故障,另一个NFS服务器仍 然可以提供服务。 2. 使用NFS集群 NFS集群是一种通过构建多个NFS服务器来提供高可用性和容灾性的解决方案。通过在不同的节点上安装NFS服务,并使用负载均衡器 进行请求转发,可以保证NFS服务的高可用性和容灾性。 3. 配置NFS监控和故障切换 为了及时发现NFS服务器的故障,并进行故障切换,我们可以配置NFS监控和故障切换脚本。通过定期监测NFS服务器的状态,一旦发 现故障,可以及时触发故障切换,以确保系统的连续性和可用性。 四、总结

oracle集群配置方式

oracle集群配置方式 Oracle RAC(Real Application Clusters)是Oracle 提供的一种高可用性、高性能的数据库集群解决方案,它允许在单个服务器上运行多个Oracle实例,从而提高系统的可用性、性能和扩展性。Oracle RAC可以使用多种配置方式,以下是其中两种主要的配置方式: 1. 共享存储配置方式: 在这种配置方式中,所有Oracle实例共享同一组物理存储设备。这可以是一个共享磁盘阵列(SAN)、NAS设备或网络文件系统(NFS)等。通过共享存储,可以实现实例间的数据同步,从而提高数据的一致性和可靠性。 以下是共享存储配置方式的关键步骤: a. 购买或配置共享存储设备,例如SAN、NAS或NFS设备。 b. 为每个实例配置磁盘,例如,创建一个存储组(Storage Group),并为每个实例分配一个磁盘。 c. 配置实例的I/O参数,包括磁盘设备的选择和实例

在存储组中的位置。 d. 配置实例间的共享磁盘,例如使用Oracle的存储管理软件OGG(Oracle Global Grid Control)或ASM(Automatic Storage Management)。 e. 配置实例间的数据同步策略,例如使用OGG或ASM的同步功能。 2. 非共享存储配置方式: 在这种配置方式中,每个Oracle实例使用独立的物理存储设备。这种配置方式的优点是实现简单,但可能导致数据一致性和性能问题。 以下是非共享存储配置方式的关键步骤: a. 购买或配置独立的物理存储设备,例如硬盘、SSD或阵列。 b. 为每个实例配置磁盘,例如创建一个存储组(Storage Group),并为每个实例分配一个磁盘。 c. 配置实例的I/O参数,包括磁盘设备的选择和实例在存储组中的位置。

NFS和iSCSI,孰优孰劣?

NFS和iSCSI,孰优孰劣? 作者:暂无 来源:《计算机世界》 2013年第2期 这是两种主要的IP 存储协议,但它们却有着全然不同的优缺点。那么,到底谁能更胜一 筹呢? SymQuest 集团系统和网络架构师Matt Prigge 其实像之前大家热议的许多IT 话题一样,对于在任何两种流行的竞争技术之间做一个选择,其关键不是比较哪一种技术在整体上更佳,而是要看哪一种技术最适合解决所面临的挑战。NFS 和iSCSI 也不例外,它们各自都有优缺点,究竟选择哪一种,这要具体情况具体分析。不过,选择哪一种协议对存储的未来大有影响。 文件VS. 数据块 无论是从实现方法还是发展历史看,NFS 和iSCSI 都有着天壤之别。NFS 由Sun公司在上 世纪80 年代初开发,当时作为一种通用的文件共享协议,让网络客户端可以通过网络从服务 器读取文件,或将文件写入到服务器。而iSCSI 的问世要晚得多,它出现在2000 年年初,作 为光纤通道之外的一种基于IP 的替代协议,与光纤通道一样,iSCSI 对数据块级的SCSI 命 令进行封装,然后通过网络发送。 两者的区别主要在于对文件系统在哪里加以实现和管理。对于像NFS 这样的文件级协议而言,由服务器或存储阵列托管文件系统,在客户端读取文件,并将文件写入到该文件系统中。而对于像iSCSI 和光纤通道这样的数据块级协议而言,存储阵列为客户端提供数据块集合,然 后客户端根据它决定需要使用的文件系统,对该原始存储数据进行格式化。 虽然这种区别具有许多影响,但最重要的影响可能在于,在像iSCSI 和光纤通道这些数据 块级协议中,存储阵列通常并不明白自己在存储什么内容,它只知道自己分配了数据块集合,哪个或哪些iSCSI 客户端可能访问它们。 反之,在像NFS 这些基于文件的协议中,存储阵列完全了解存储在其上面的应用数据,无 论这是一般的文件共享数据,还是组成虚拟机集合的文件。 从实际的角度来看,由于存储阵列端了解存储在基于NFS 的部署环境中的数据,因而存储 阵列更容易跟踪实际的存储使用情况,在自动精简配置场合下,就能够拍摄快照或备份单个虚 拟机,甚至可以在阵列端对主存储数据进行重复数据删除。 但是,VMware 的阵列集成vSphere 应用编程接口(VAAI)最近进行了SCSI T10方面的改进,通过支持UNMAP SCSI 原始命令,为基于数据块的存储增添了类似功能,这改进了虚拟化 堆栈释放未使用数据块(因而让阵列可以回收这些数据块)的功能,还改进了阵列端副本卸载 功能,因而加快了虚拟机克隆等任务。从某种意义上说,通过针对SCSI 协议的扩展,在使用NFS 的文件级系统中,已经实现的虚拟机管理程序与阵列的智能化集成,一部分移植到了数据 块级实现的环境中。 文件与数据块之间的区别还不止这些。 尽管添加这些SCSI 原始命令,让基于SCSI的存储协议可以具有与NFS 同样的一些本领,但是在其他情形下,文件级协议还是有其优势,延伸集群(stretched clusters)就是一个例

Linux集群文件系统简介

Linux 集群文件系统简介 作者Sheryl Calish 集群文件系统在多个方面完善了Oracle RAC 的数据库集群功能。以下是它们的比照状况。 通常,集群只是一组作为单一系统运行的效劳器〔PC 或者工作站〕。但是,这个定义的外延不断显著扩大;集群技术现在不但是一个动态领域,而且其各种应用程序正不断吸取的特性。此外,集群文件系统技术〔无论是开放源代码的还是专有的〕在其功能方面正在快速趋同。 很多人谈到集群应用程序和其中所使用的文件系统软件时,就象它们完全是一回事似的。更准确地说,大多数集群包含两个主要组件:通过快速网络连接共享存储介质的效劳器和充当软件“粘合剂”使集群节点保持协作的文件系统。 在“Linux 文件系统精通指南”一文中,我解释了文件系统方法和数据构造如何供给硬盘分区物理构造的用户级视角。虽然各工程之间有所不同,但集群文件系统为集群的多个节点所做的工作是一样的:它们使全部节点看上去都象是单一系统的一局部,同时允许集群的全部节点进展并发的读写操作。 在本篇后续文章中,我们将从较高角度来介绍集群文件系统之间的总体差异以及Oracle 真正应用集群(RAC) 环境的某些特性。刚接触集群、Linux 文件系统或Oracle RAC 的数据库治理员或系统治理员会发该文很有教育意义。 集群应用程序简介 集群应用程序具有各种级别的成熟度和功能。它们包括: •高性能集群也称为并行集群或计算集群,通常用于那些支持大量计算处理的系统。在这些集群中,并行文件系统在节点间安排处理资源,因而允许每个节点通过并发的读写同时访问同一文件。 NASA 在二十世纪九十年月初期开发的Beowulf Linux 集群就是最常见的例如。 •高可用性(HA) 集群特地为容错或冗余而设计。由于这些集群通常使用一个或多个效劳器进展处理,所以当一个或多个效劳器停机时,这些效劳器能够担当其他效劳器的处理职责。 •负载平衡或负载均衡集群在多个效劳器〔通常是web 效劳器〕间尽可能平均地安排负载。 •存储集群用于SAN 和具有不同操作系统的效劳器之间,供给对通用存储介质上的数据块的共享访问。 •数据库集群将Oracle RAC 作为平台,把很多集群文件系统特性引入到应用程序本身中。 这些集群应用程序具有重叠的特性,其中一个或多个特性通常可在单个集群应用程序中找到—尤其是在HA 和负载均衡集群中。例如,Oracle RAC 可以安装在HA 集群文件系统上,从而将数据库集群的优点引入HA 集群应用程序,如: •共享资源—包括数据、存储器、硬盘和元数据—从而使多个节点看上去就像单一文件系统。 它们允许集群的全部成员同时读写文件系统。 •将存储设备集合到单个磁盘卷中,从而因无需进展数据复制而提高了性能 •可伸缩的容量、带宽和连接性 •单个系统映像,为全部节点供给一样的数据视图。

相关主题
相关文档
最新文档