服务器集群技术网络存储技术基础

服务器集群技术网络存储技术基础
服务器集群技术网络存储技术基础

深入讲解服务器集群技术

在发展初期,一路处理器便可为一台服务器及其所有应用提供动力。接着就发展到了多处理时代,这时两路或多路处理器共享一个存储池,并能处理更多更大的应用。然后出现了服务器网络,该网络中的每台服务器都专门处理不同的应用集。现在,发展到了服务器集群,两台或多台服务器像一台服务器一样工作,提供更高的可用性和性能,这已经远远超出了您的想像。应用可从一台服务器转移到另一台服务器,或同时运行在若干台服务器上一一所有这一切对用户都是透明的。

集群并不是新事物,但在软件和硬件方面,直到最近它们还是专有的。信息系统经理对集群进行了更加仔细的考虑,这是因为现在他们可以使用大规模生产的标准硬件实现集群,如RAID、对称多处理系统、网络和I/O网卡及外设。集群技术在未来将会获得更大的发展,现在,不断推出新的集群选件,而真正的集群标准尚在制定之中。

何为集群?

简单的说,集群就是两台或多台计算机或节点在一个群组内共同工作。与单独工作

的计算机相比,集群能够提供更高的可用性和可扩充性。集群中的每个节点通常都拥有自己的资源(处理器、I/O、内存、操作系统、存储器),并对自己的用户集负责。

故障切换功能提供丝捎眯裕旱币桓鼋诘惴⑸?quot;切换”到集群中

一个或多个其它节点上。一旦发生故障的节点恢复全面运行,通过前瞻性地将一台服务器的功能”切换”到集群中其它服务器上,可以实现升级,停止该服务器的运行以增加组件,然后将其放回到集群中,再将其功能从其它服务器转回该服务器。利用分布式讯息传递

(DMP)可提供额外的可扩充性,DMP是一种集群内通信技术,该技术允许应用以对最终

用户透明的方式扩展到单个对称多处理(SMP)系统以外。

集群中的每个节点必须运行集群软件以提供服务,如故障检测、恢复和将服务器作为约个系统进行管理的能力。集群中的节点必须以一种知道所有其它节点状态的方式连接。这通常通过一条由于局域网路径相分离的通信路径来实现,并使用专用网卡来确保节点间清楚的通信。该通信路径中继系统间的一?quot;心跳”,这样,如果一个资源发生故障因而

无法发送心跳,就会开始故障切换过程。实际上,最可靠的配置采用了使用不同通信连接

(局域网、SCSI和RS232)的冗余心跳,以确保通信故障不会激活错误的故障切换。

集群级别

今天,对于集群购买者来说,幸运的是有多款不同档次的集群可供选择,它们可提供广泛的可用性。当然,可用性越高,价格也越高,管理复杂性也越大。

共享存储

共享磁盘子系统往往是集群的基础、它使用共享的SCSI或光纤通道。每个节点使用其

本地磁盘存储操作系统交换空间和系统文件,而应用数据存储在共享磁盘上,每个节点均可读取由其它节点写入的数据。应用间的并发磁盘访问需要分布锁定管理器(DLM),而且

共享磁盘子系统与其集群节点之间的距离会受到所选择介质(SCSI或光纤通道等)的限制。

服务器镜像(镜像磁盘)

需要数据冗余而又无需占用额外磁盘子系统的环境有权选择服务器间的镜像数据。除了成本更低以外,服务器镜像的另一个优势是,在主板服务器与辅助服务器之间的连接可以是基于局域网的,这样就消除了

SCSI距离限制。数据写到主板服务器上后,它还写到

了辅服务器上;通过锁定服务器数据保持了数据的完整性。一些服务器镜像产品还可将工作负载从主服务器转换到辅服务器上。

非共享

现在,一些集群产品使用的是”非共享”体系结构,在此体系结构中,节点既不共享集

中式磁盘,也不在节点间镜像数据。发生故障时,非共享集群所具有的软件能够将磁盘所有权从一个节点传送至另一个节点,而无需使用分布式分布式锁定管理器(DLM )。

可以使用多种方法配制集群实现故障切换。第一种方法是N路配制,集群中的所有节点在正常情况下都拥有自己的用户和工作负载。一个故障节点的资源可切换到其它节点,但由于剩余的服务器承担了额外的负载,因此其性能将有所下降。

N+1配制包括一个热待机系统,它在主系统发生故障之前一直处于空闲模式。在N+1

配制中,当一个节点发生故障时可避免其它节点的性能下降。但是,由于待机节点在正常情况下并不提供服务,因而成本较高。

在任何配制中,一旦出现问题,集群软件将能够首先进行本地恢复。本地恢复即在发生故障时,在本地节点自动重新启动应用或服务的能力。对节点并非致命的故障来说,逻辑上本地恢复是首选方式,因为与切换至另一个节点相比,它对用户的中断更少。

就故障切换的种类而论,一些集群产品可进行并行恢复,其中资源能够故障切换到不同地区的远程节点上。这很适合于容灾需求。次外,为了解决多个节点故障问题,一些集群产品可以进行级联故障切换,其工作方式就像多米诺骨牌一样:节点一故障切换到节点二,节点二发生故障后再切换到节点三等等。

故障切换举例

以下是双节点集群故障切换举例,其中两个节点都拥有其自己的用户和以下的应用。

1.节点1因出现内存问题导致了应用故障。用户讯息错误且其应用停止运行。集群管理软件将这一问

题通知系统管理员。

2.节点1进行本地恢复,重新启动故障应用。用户能够重新启动其应用。

3.当应用再次发生故障时,集群软件向节点2进行故障切换。故障切换需要大约1分钟,用户必须等待。(实际时间可能会从几秒至几分钟。)一些应用能够检测故障过程并向

用户显示信息,告知她们向另一台服务器传输应用。

4.一旦该应用在节点2中重新启动,用户即可继续工作。

5.诊断和修理节点1。将已恢复正常的节点1放回远处后,关恢复(切换)过程就会

启动,以使应用和相关资源回到节点1。可人工或自动实现该故障恢复。例如,在非高峰期

间,可将其配置为故障恢复状态。

集群可扩充性

除了提高的可用性,性能可扩充性也是集群的一个主要优势。通常,可通过集群负载平衡提高性能。本质上,负载平衡意味着将相关应用和资源从繁忙节点转移到不繁忙节点。

真正的可扩充性是在其它区域实现的。第一个区域是增加可扩充性,这意味着能够在不抛弃以前系统的情况下,不断添加服务器、磁盘存储器等。实际上,随着您的计算机需求不断增加,集群提供了随着您的发展进行支付的环境。当能够在集群多个节点上自动分配其工作负载的真正”支持集群”应用在未来形成开发标准后,您将看到第二种类型的可扩充性。除此之外还可分离应用,以使一个应用的不同”线程”运行在不同节点上,从而极

大提高可

应用如何处理故障切换?

下一个问题是”应用如何处理故障切换?”答案是”这取决于所使用的应用和集群产品。

"一些集群产品为专门应用(如数据库或通信协议)提供了恢复或切换套件。这些套件可在应用故障时进行检测,并可在另一服务器上重新启动该应用。

应用处理故障的方法由于集群产品的不同而不同。正如我们以前提到的一样,尽管不同的厂商都试图制定一个通用标准,但现在集群软件还没有公共标准。

然而,必须修改现在的应用以处理故障切换,应用的最终目标不受硬件的影响。一个解决方案是与操作系统共同运行的一组程序和API (应用编程口),从而使得应用厂商能够

创建执行这些恢复功能的程序。使用这些API使应用”支持集群”。当前集群产品的许多厂

商都在努力奋斗,以确保集群产品能够符合这些不同的操作系统API。

由英特尔、康柏、惠普、微软、戴尔、SCO和天腾联合推出了虚拟接口体系结构(VIA)计划正为开发集群硬件和软件产品制定标准,该标准将是独立于厂商的,它将为用户购买

技术时提供更多的选择。

真正的集群可被认为是多处理发展演变的下一步一一以前,应用应用跨越一个系统的多个处理器运行,现在,应用可以跨越跨越若干系统的多个处理器运行。

集群提供了两个主要优势:高可用性(通过故障切换功能)和可扩充性(通过增加扩展和跨越处理器进行负载平衡)。

当节点出现硬件或软件问题后,就会进行故障切换,该节点的应用及通信连接将切换到另一台服务器上。可使用集群管理产品规定那些应用应进行故障切换,以及那些故障条件可触发这一过程。

可以获得许多集群种类和配置,以为用户提供他们所需的确切可用性级别。共享磁盘、服务器镜像及非共享是这些配置的几个。

三种服务器的结构如何区别?

相信大家一定注意到了,各种媒体上经常按塔式、机架式和刀片式这三种结构来划分服务器,服务器的外形为什么会有这样的划分呢?主要原因就是具体的应用环境不同,塔式服务器长得跟我们平时用的台式机一样,占用空间比较大,一般是一些小型企业自己使用自己维护;而机架式服务器长得就像卧着的台式机,可以一台一台的放到固定机架上,因此而得名,它可以拿去专业的服务器托管提供商那里进行托管,这样每年只需支付一定的托管费,就免去了自己管理服务器的诸多不便;而刀片服务器是近几年才比较流行的一种服务器架构,它非常薄,可以一片一片的叠放在机柜上,通过群集技术进行协同运算,能够处理大量的任务,特别适合分布式服务,如作为 WEB服务器。

看完上面的简单介绍,相信各位对这3种服务器已经有个基本的认识了,下面我们

就来一一细说,为大家做更详细的讲解:

什么是塔式服务器:

塔式服务器应该是大家见得最多,也最容易理解的一种服务器结构类型,因为它的

外形以及结构都跟我们平时使用的立式PC差不多,,当然,由于服务器的主板扩展性较强、

插槽也多出一堆,所以个头比普通主板大一些,因此塔式服务器的主机机箱也比标准的ATX 机箱要大,一般都会预留足够的内部空间以便日后进行硬盘和电源的冗余扩展。

由于塔式服务器的机箱比较大,服务器的配置也可以很高,冗余扩展更可以很齐备,

所以它的应用范围非常广,应该说目前使用率最高的一种服务器就是塔式服务器。我们平时常说的通用服务器一般都是塔式服务器,它可以集多种常见的服务应用于一身,不管是速度应用还是存储应用都可以使用塔式服务器来解决。

就使用对象或者使用级别来说,目前常见的入门级和工作组级服务器基本上都采用这一服务器结构类型,一些部门级应用也会采用,不过由于只有一台主机,即使进行升级扩张也有个限度,所以在一些应用需求较高的企业中,单机服务器就无法满足要求了,需要多机协同工作,而塔式服务器个头太大,独立性太强,协同工作在空间占用和系统管理上都不方便,这也是塔式服务器的局限性。不过,总的来说,这类服务器的功能、性能基本上能满足大部分企业用户的要求,其成本通常也比较低,因此这类服务器还是拥有非常广泛的应用支持。

什么是机架式服务器:

作为为互联网设计的服务器模式,机架服务器是一种外观按照统一标准设计的服务器,配合机柜统一使用。可以说机架式是一种优化结构的塔式服务器,它的设计宗旨主要是为了尽可能减少服务器空间的占用,而减少空间的直接好处就是在机房托管的时候价格会便宜很多。

为什么说机架式服务器是作为为互联网设计的服务器模式?

正如大家所知,很多专业网络设备都是采用机架式的结构(多为扁平式,活像个抽屉),如交换机、路由器、硬件防火墙这些。这些设备之所以有这样一种结构类型,是因为他们都按国际机柜标准进行设计,这样大家的平面尺寸就基本统一,可把一起安装在一个大型的立式标准机柜中。这样做的好处非常明显:一方面可以使设备占用最小的空间,另一方面则便于与其它网络设备的连接和管理,同时机房内也会显得整洁、美观。

机架服务器的宽度为 19英寸,高度以 U为单位(1U=1.75英寸=44.45毫米),通常有1U, 2U, 3U, 4U, 5U, 7U几种标准的服务器。机柜的尺寸也是采用通用的工业标准,通常从22U到42U不等;机柜内按 U的高度有可拆卸的滑动拖架,用户可以根据自己服务器的标高灵活调节高度,以存放服务器、集线器、磁盘阵列柜等网络设备。服务器摆放好后,它的所有I/O线全部从机柜的后方引出(机架服务器的所有接口也在后方),统一安置在机柜的线槽中,一般贴有标号,便于管理。

现在很多互联网的网站服务器其实都是由专业机构统一托管的,网站的经营者其实

只是维护网站页面,硬件和网络连接则交给托管机构负责,因此,托管机构会根据受管服

务器的高度来收取费用,1U的服务器在托管时收取的费用比2U的要便宜很多,这就是为什

么这种结构的服务器现在会广泛应用于互联网事业。

还有一点要说的是机架式服务器因为空间比塔式服务器大大缩小,所以这类服务器在扩展

性和散热问题上受到一定的限制,配件也要经过一定的筛选,一般都无法实现太完整的设备扩张,

所以单机性能就比较有限,应用范围也比较有限,只能专注于某一方面的应用,如远程存储和 Web

服务的提供等,但由于很多配件不能采用塔式服务器的那种普通型号,而自身又有空间小的优势,

所以机架式服务器一般会比同等配置的塔式服务器贵上 20- 30%。至于空间小而带来的扩展性问题,

也不是完全没有办法解决,由于采用机柜安装的方式,因此多添加一个主机在机柜上是件很容易的

事,然后再通过服务器群集技术就可以实现处理能力的增强,如果是采用外接扩展柜的方式也能实

现大规模扩展,不过由于机架式服务器单机的性能有限,所以扩展之后也是单方面的能力得到增

倍,所以这类服务器只是在某一种应用种比较出色,大家就把它划为功能服务器,这种服务器针对

性较强,一般无法移做它用。

什么是刀片服务器?

对于企业和网络信息提供商来说,无限增长的数据必须集中存储和处理,于是未来的网络发展呈现出集中计算的趋势。集中管理模式与现有的分散管理模式,对服务器提出了新的要求:节约空间、便于集中管理、易于扩展和提供不间断的服务,成为对下一代服务器的新要求。

作为网络重要组成部分的服务器来说,性能已不仅仅是评价服务器的唯一指标了,用户更关心的是符合自己实际需要的产品。目前服务器集群已经在市场上得以广泛应用,而新一代机架式服务器也开始进入市场,为用户提供了更多的选择。但是随着网络向更深层面发展,下一代服务器将会是 Blade Server (刀片服务器)。

刀片服务器是一种HAHD( High Availability High Density ,高可用高密度)的低成

本服务器平台,是专门为特殊应用行业和高密度计算机环境设计的。其中每一块”刀片"实

际上就是一块系统主板。它们可以通过本地硬盘启动自己的操作系统,如Windows NT/2000、Linux、Solaris 等等,类似于一个个独立的服务器。在这种模式下,每一个主板运行自己的系统,服务于指定的不同用户群,相互之间没有关联。不过可以用系统软件将这些主板

集合成一个服务器集群。在集群模式下,所有的主板可以连接起来提供高速的网络环境,可以共享资源,为相同的用户群服务。在集群中插入新的”刀片”,就可以提高整体性能。

而由于每块”刀片"都是热插拔的,所以,系统可以轻松地进行替换,并且将维护时间减少到最小。值得一提的是,系统配置可以通过一套智能KVM和9个或10个带硬盘的CPU板来

实现。CPU可以配置成为不同的子系统。一个机架中的服务器可以通过新型的智能KVM转换

板共享一套光驱、软驱、键盘、显示器和鼠标,以访问多台服务器,从而便于进行升级、维护和访问服务器上的文件。

克服服务器集群的缺点

作为一种实现负载均衡的技术,服务器集群可以有效地提高服务的稳定性和/或核心网

络服务的性能,还可以提供冗余和容错功能。理论上,服务器集群可以扩展到无限数量的服务器。无疑,服务器集群和RAID镜像技术的诞生为计算机和数据池的In ternet应用提

供了一个新的解决方案,其成本远远低于传统的高端专用服务器。

但是,服务器集群的集成能力低,管理这样的集群使很多IDC都非常头疼。尤其是集

群扩展的需求越来越大,维护这些服务器的工作量简直不可想像,包括服务器之间的内部连接和摆放空间的要求。这些物理因素都限制了集群的扩展。“高密度服务器” 一一Blade Server的出现适时地解决了这样的问题。高密度服务器内置了监视器和管理工具软件,可以几十个甚至上百个地堆放在一起。配置一台高密度服务器就可以解决一台到一百台服务器的管理问题。如果需要增加或者删除集群中的服务器,只要插入或拔出一个CPU板即可。就这个意义上来说, Blade Server从根本上克服了服务器集群的缺点。

小结:

说到这里,大家应该知道几种服务器都是如何运用以及应用在什么领域了吧,那么大家接下来构建自己的服务器时,记得多从技术和应用两个方向去考虑,以便选择自己需要的服务器。

如今的网络时代是资源共享的时代,各类信息资源的积累加剧了其膨胀性,人们对数据审视观念也发生了改变,不单单只是安全存储的数据,更把它们当成竞争优势的战略性资产;而且网络已经成为主要的信息处理模式。对数据传输、管理、维护、虚拟化等等要求,都意识着对数据存储技术的发展提出了全面的挑战,对存储体系结构提出了进一步的要求。

不管网络发展到何种阶段,用户最终需要的是数据。网络上大量的数据需要存储,如何才能简便、快速、安全地存储这些数据呢?这对存储系统的容量和速度提出了空前的要求。传统的以服务器为中心的DAS ( Direct Attached Storage )方式(这种方式是将 RAID

硬盘阵列直接安装到网络系统的服务器上),已不能满足用户的需要,越来越多的用户已经从原来的‘服务器中心’模式转换为以‘数据为中心’的NAS和SAN上。

我们通过以下几个方面系统了解网络存储系统:

(一)直接连网存储(NAS

(二)区域存储网络(SAN

(三)IP SAN

(四)NAS与SNA的比较

(五)NAS与SNA的统一

(六)网络存储系统市场趋势

通过下面的讲解,希望可以给大家一个系统性的认识。随着市场对网络存储设备的需求,大量厂商对这块市场早已做大量的工夫,网络技术的发展,产品也是层出不穷。再下篇文章中我会对市场的主流产品进行详细介绍和讲评。

(一)直接连网存储(NAS

NAS的全称是Network Attached Storage ,中文翻译为直接连网存储。在NAS存储结

构中,存储系统不再通过 I/O总线附属于某个特定的服务器或客户机,它完全独立于网络中的主服务器,可以看作是一个专用的文件服务器。也就是说,客户机与存储设备之间的数据访问已不再需要文件服务器的干预,允许客户机与存储设备之间进行直接的数据访问。

在LAN 环境下,NAS 已经完全可以实现异构平台之间的数据级共享,比如 之间的共享。

一个NAS 包括处理器、文件服务管理模块和多个的硬盘驱动器用于数据的存储。

NAS 可 以应用在任何的网络环境当中。主服务器和客户端可以非常方便地在 NAS 上存取任意格式 的文件,包括 SMB 格式、NFS 格式和CIFS 格式等等。NAS 系统可以根据服务器或者客户端 计算机发出的指令完成对内在文件的管理。

此外,与传统的将 RAID 硬盘阵列安装到通用服务器上的方法相比,

NAS 系统还具有以

下优点: 首先,NAS 系统简化了通用服务器不适用的计算功能,仅仅为数据存储而设计,降低了 成本。并且,NAS 系统中还专门优化了系统硬软件体系结构,其多线程、多任务的网络操作 内核特别适合于处理来自网络的 I/O 请求,不仅响应速度快,而且数据传输速率也更高。

其次,由于是专用的硬件软件构造的专用服务器,不会占用网络主服务器的系统资源, 不需要在服务器上安装任何软件,不用关闭网络上的主服务器,就可以为网络增加存储设 备。安装、使用更为方便。并且,

NAS 系统可以直接通过 Hub 或交换机连到网络上,是一种

即插即用的网络设备。 再次,由于独立于主服务器之外,因此对主服务器没有任何需求。如此可以可大大降 低主服务器的投资成本。

最后,NAS 具有更好的扩展性,灵活性。存储设备不会受无地理位置的拘束,在不同地 点都可以通过物理连接和网络连接连起来 。

NT UNIX 等平台

(二)区域存储网络(SAN

SAN—— Storage Area Network ,中文翻译为区域存储网络,是一种网络化的基础设

施。我们可以通过 SAN基础架构,更清晰了解它。

SAN基础架构

SAN城隣架构

通过互连光纤通道交换机构造的高速网,连接所有的服务器和所有的存储设备,让多个主机访问存储设备跟各主机间互相访问一样方便。

这些互连的交换机形成了SAN的核心一一光纤通道(Fibre Channel ),也就是FC技

术,FC是ANSI为网络和通道I/O接口建立的一个标准集成。

而光纤通道协议是 SAN的另外一个本质特征,SNA就是利用光纤通道协议上加载 SCSI 协议来达到可靠的快级数据传输,它主要支持HIP PI、IPI、SCSI、IP、ATM等多种高级协

议。

SNA的最大特性是将网络和设备的通讯协议与传输物理介质隔离开。这样多种协议可

在同一物理连接上同时传送,高性能存储体和宽带网络使用单I/O接口使得系统成本和复

杂程度大大降低。如通过将多台大型交换机连接在一起,能够构建可提供数百个端口的SAN 适应增长型企业不断剧增的信息存储容量的需要。

并且光纤通道支持多种拓扑结构,主要有:点到点( Link )、仲裁环(FC-AL)、交换式网络结构(FC-XS)。

SAN凭借着FC技术的特性决定了它的诸多优势:

首先,在一些关键应用中,传输块级数据要求必须使用 SAN尤其是多个服务器共同向大型存储设备进行读取。由于在数据传输时被分成小段,使SAN对服务器处理的依赖较

少,可以有效地传送爆发性的块数据,SAN的性能及可靠性就得到了充分的发挥。

其次,利用光纤通道速度快的优势通过局域网,SAN可以实现远程灾难恢复。一般地,

使用E3信道,SAN可以在不降低性能的同时将部件间的距离增加至150km。

再次,SAN采用可伸缩的网络拓扑结构。通过具有较高传输的光纤通道连接方式,提供 SAN内部任意节点之间的多路可选择的数据交换,这样将数据存储管理集中在相对独立的存

储区域网内。

最后,很重要的一点,SAN的管理是集中而且高效的。用户可以在线添加/删除设备、

动态调整存储网络以及将异构设备统一成存储池等。

这里重点强调FC SAN一个弱点,这个缺陷主要是它的物理机理决定的,它无法使存储设备随它在网络上运行,从而无法满足应用前端对存储数据“无时不有、无处不在”的要求。FC SAN的物理布线有限,不超过 50KM这样容易形成存储“孤岛”现象。

数据的急剧倍增,给很多企业带来了压力,并开始将存储系统从直接连接存储(DAS

向区域存储网络(SAN迁移,SAN无疑是理想的选择,从上文介绍的优势,我们知道它可以提升灵活性、改善资产利用率和加大关键业务数据保护能力来获得更多的利益。但FC SAN 基于FC技术,其成本以及管理难度都让众多中小企业望尘莫及。

另一方面,由于SAN本身技术的局限,最主要的问题是它与应用网络的异构性,出现

了“孤岛”现象。很多专家就认为,应该寻求一种新的方式,以与应用网络相同的体系架

构、技术标准去构造存储网。而从技术构造还是经济成分角度分析,SAN就成了理想的对象。

为此,以IP 网络起家的网络厂商巨头 Cisco 和IBM 联手,专门研究与开发

iSCSI 技术 标准。于是,一种新兴的、既降低成本又简化管理是

IP SAN 技术应运而生。 IP SAN 通过结合iSICI 和千兆以太网的优势,不仅提供了 FC SAN 的强大的稳定性和功

能,还省掉了 FC 不菲的成本,简化了设计、管理与维护,降低了各种费用和总体拥有成本, 从而成为数据量高速增长企业的新选择。

目前主流的三种IP 存储方案包括:互联网小型计算机系统接口( In ternet Small

Computer Systems In terface ,简称 iSCSI)、互联网光纤通道协议 (In ternet Fibre Cha nnel Protocol ,简称iFCP)和基于IP 的光纤通道(FCIP)方案。

虽然三种IP 存储方案都有成本低、灵活性强、可管理性好、距离适中、以及对以太网 技术熟悉。而基于IP 存储技术的SAN 兼具了 FCSAN 的高性能和NAS 的文件共享优势,为 新的数据应用方式提供了更加先进的结构平台。在多种

SAN 孤岛互连技术解决方案中,IP

SAN 也显现出明显的优势。

(四

)

NAS 与SNA 的比较

我们看到的SNA 和 NAS 无非就是字母顺序颠倒, 而且随着网络存储的发展和应用,

两 者之间

的界限越来越模糊,在下一节我们会谈谈他们统一的趋势。 NAS 与SAN 的本质区别在于以太网与 FC,两者的命运系于 TCP/IP 协议。这些本质区别

是从网络架构来说的。现在主要还是介绍他们之间性能的一些差别,主要从下面几个方面

来比较:

IF-SAN^iPj

文件管理系统

我们可以看出,NAS和SAN最大的区别就在于 NAS有文件操作和管理系统。 SAN结构中, 文件管理系统(FS)还是分别在每一个应用服务器上;而NAS则是每个应用服务器通过网

络共享协议(如:NFS CIFS)使用同一个文件管理系统。

异构下的文件共享

由于NSA有存储操作系统,而 SAN却没有这样的系统功能,反而具有数据功能,从这些意思上看,SAN 是独立出一个数据存储网络,网络内部的数据传输率很快,但操作系统仍

停留在服务器端,用户不是在直接访问SAN的网络,因此这就造成 SAN在异构环境下不能

实现文件共享。SAN是只能独享的数据存储库,NAS是共享与独享兼顾的数据存储库。

数据备份方式

NAS没有解决与文件服务器相关的一个关键性问题,即备份过程中的带宽消耗。与将备

份数据流从LAN中转移出去的SAN不同,NAS仍使用网络进行备份和恢复。NAS的一个缺点

是它将存储事务由并行 SCSI连接转移到了网络上。也就是说LAN除了必须处理正常的最终用户传输流外,还必须处理包括备份操作的存储磁盘请求。

文件读写实现

NAS采用了 NFS沟通Unix阵营和CIFS沟通NT与Unix,这也反映了 NAS是基于操作系统的“文件级”读写操作,访问请求是根据“文件句柄+偏移量”得出。句柄是比进程还要

小的单元,通常用作进程之间通信、资源定位等。SAN中计算机和存储间的接口是底层的块

协议,它按照协议头的“块地址+偏移地址”来定位。从这点说,SAN天生具有存储异构整

合的存储虚拟化功能。

比较两者的优势,总的来说,SAN对于高容量块状级数据传输具有明显的优势,而NAS 则更加适合文件级别上的数据处理,而实际上SAN和NAS之间的特点是互相补充的存储技

术。

对于用户而言,通过 NAS可以更好的处理文件级信息而不占用应用服务器的CPU资源,

并且NAS可以经济地解决存储容量不足的问题,但性能上难以获得满意;对于关键事物应

用而言,需要大量的存储容量和高性能的传输模式,则SAN提供了很好的解决方案。

但这两种结构,都存在人们所呼吁的"信息孤岛”的现象,之前认为SAN的诞生使得NAS言息孤岛可以共享,随着对网络存储的种种要求,SAN也到达了另一种“孤岛”的现象。

因此对SAN的互连的呼声与日俱增。

一些其他的信息技术趋势也已经驱使NAS与SNA的融合采用。如一些分散式的应用和

用户要求访问相同的数据;对提供更高的性能、高可靠性和更低的拥有成本的专有系统的高增长要求,等等。

目前,居于这种趋势,众多厂商纷纷推出了融合NAS和SAN的存储解决方案。虽然每

个方案都有自己的特色,总体来看,主要可以分成两类:一种是“ SAN+NAS 网关”;另一种是“ NetApp 统一存储系统”。

SAN+NA删关

NAS网关通过IP网络连接到基于光纤通道的存储上,架起一座连接NAS与SAN网络的

桥梁。NAS网关也就相当于SAN网络之间的相连的“接口”,网关间可以连接以太网交换机

形成NAS网络。这样,一个“ SAN+NAS网关”既可提供文件系统共享,有可以提供高容量块

级的综合应用。因此 NAS和SAN融合可以说是帮助用户较全面地解决了网络存储的应用问题。但这种方式也存在着缺点,在整个这样的系统中,有可能存在两套不同的NAS网关,

这就造成管理的复杂程度加剧,并且彼此之间的空间无法进行有效利用。因此,人们也提

出NAS网关只是NAS和SAN的融合这个概念的入门基础的概念。

通过下图介绍一下 NAS网关的工作原理,方便大家理解。

■工作Si 理???*

HAS 刚茉将IP 河络弓有储区城用连接在一溟 隹斥户可以访问HAS 专用谩賢和SAN

阵列上的文件°

G 客尸机从MAS 期关请琪文件删.

O 刃咽翩黄转接解户机请貳井问SAN 存 儲障列发出块細蹄

或*

0释倩阵列职丘诀數锯.将它 o MAS 軻荃祥块散損車新转换为文 再祐它发送若容户机" o 客户楓橋收谛茨酊丈件.

NAS 网关通过IP 连接客户机可以以文件的方式访问

SAN 上的块级存储。他主要通过标

准的文件共享协议(如 NFS 和CIFS )来处理来自客户机的请求。 当NAS 网关收到请求后,就把该请求转换为向

SAN 中的存储阵列发出的块数据请求。 存储阵列处理完请求后,把处理结果发回给网关。这时 NAS 网关将块信息转换为文件数据,

再发给客户机。要是把 NAS 与IP 网络连接的NAS 网关连接在一台光纤交换机上,那么

NAS 网关就可以访问连接多个存储阵列的 SAN 网络了。

NAS 网关由于支持不同的 SAN 连接设备,可以组成多层存储, 并且使用已有的管理工具 管理SAN 数据,因而优化和延长了存储资源的使用寿命。

(五)NAS 与SNA 的统

NetApp 统一存储系统

真正的NAS 和SAN 的融合就是这单台存储既可以当 NAS 也可以当SAN 存储设备来用,

其中的主要区别在于是用网线还是用光纤。基于这一点,我们可以看到市场上,

NetApp 应 该说做得很不错!

在这里,有必要向大家解释前面所提到的 SAN 与 NAS 界限越来越模糊的说法。

之前有一段时间,NAS 完全表示利用IP 的文件传送,而 SAN 则表示光纤通道。后来在

NAS 厂商Network Applianee 的努力,NAS 设备增添了光纤通道和 iSCSI 功能后,NAS 看起 来就很像SAN 了。而SAN 也由于本身的局限,也基于 iSCSI 技术标准开发了 IP SAN 。业界 就有这样一句话就体现着这一特点,“……也许披着 SAN 外衣的NAS 真的应该被认为是

J SAN 交换机存储阵列

客户机

*

NAS 网关 IP U 血屉务器

SAN ”而想区别可能就是决定于NAS与SAN昆合结构中所采用的协议了:IP、光纤通道,

或者iSCSI 。

目前NetApp的引以为豪四条产品线,体现出统一化网络存储理念。这种实现方式和在

SAN+NA删关正好相反,不是 SAN到NAS的支持,而是 NAS到SAN的支持,既在原有的 NAS 基础上,增加对FCP协议的支持。

对于NAS本身具有操作系统和文件系统来说,仅仅是对一个协议的支持。这样,在同

一个网络存储可以通过不同的接口卡完成对SAN和NAS的同时支持,如通过以太网卡提供

NAS的访问服务,而同时又可以通过 HBA卡提供SAN的访问服务。同时,可以看到这种实现的模型其管理还是原有的NetApp的产品,因此管理复杂程度没有大幅度改动。换言之,这

我们来了解近期存储市场动态:

作为存储第一号人物的 EMC公司在国内推出针对低端用户的CLARIIONAX100系列产品,

它的发布预示着 EMC进军国内低端存储市场。在9月上旬就分别推出低阶和中阶的NAS --- Celerra NAS 系统。

新款Celerra NS500 系统具有整合型以及闸道器的组态,提供一款低成本的入门级方案。此外就是Celerra NS704G NAS闸道器,为一款中阶 NAS系统。

IBM 在六月份就宣布推出了全新的中低端存储产品及解决方案,以更低的成本帮助中小企业用户解决数据存储和保护问题,提高业务连续性和有效性。

在9月上旬,宣布将发表中型企业建立SAN的低价磁碟服务器。

一款是 DS300 采用了 ISCSI 介面,也就是以先有的 Gigabit Ethernet 高速以太网网络协议为基础,因此可以比传统采用FC SAN还要便宜。这套服务器拥有 Ultra 320 ISCSI 硬

碟,电池备份快取及电源供应。IBM表示,该系统起价 2995美元。IBM此举也反映出,由

于储存系统的软、硬体厂商试图降低成本以吸引中小企业。

另一款是5.25寸高的DS400一套2GB光纤通道的储存系统,起价为5254美元。

另外一方面IBM还帮助Emulex推出入门级FC SAN交换机,而且双方协议有 IBM销售一款定制版本的交换机。

HP向中国市场推出了 HP Storageworks MSA1500产品,旨在为用提供灵活的存储解决方案来进行数据分类存储管理。

MSA1500是一款采用2Gb光纤通道的SAN存储系统,利用现有的SCSI驱动器机柜和 HP Storage Works MSA1000控制器技术,可以集成低成本的惠普 SATA硬盘驱动器和机柜。这种结构为用户提供了低成本、高容量的存储系统。

日立公司于今年五月份宣布,为Thunder 9500V系列模块存储系统推出 SATA混插选项。

它能够被添加到现有的Thunder 9500V 系统中,从而在同一系统内实现兼具高速光纤通道

和更低成本SATA磁盘优势的分层存储解决方案。

从上面的动态了解,各大存储厂商都瞄准了中小企业。其实从存储技术的发展趋势,我们就可以看出,中小企业已经成为存储市场一批新起的用户。在存储市场中,他们目前数量虽小,影响甚微,但是他们确实满满成为主导存储市场变局的一群新用户,同时又恰恰是国内存储厂商们的希望所在。

就目前来讲,国内用户对存储设备的需求极其旺盛,比如浪潮,推出存储产品后不到半年的时间内就签下了几十定单,客户涉及的领域也很广泛。当然,对于中小企业市场,利润不高,这可能是之前各大厂商视而不见的缘故,但市场需求量,其中的商机、潜力日益明朗。不管国外国内,都想率先抢占中小企业市场。

相关主题
相关文档
最新文档