高性能计算(HPC)数据中心解决方案

合集下载

高性能计算系统(HPC)软件实施方案

高性能计算系统(HPC)软件实施方案
计算中心计算管理系统从功能实现来说,分为四个子模块系统,他们分别为:
2:高性能计算平台——分系统组成
高性能计算平台——仿真计算分系统
双路计算服务器、双路GPU计算服务器、16路胖节点计算服务器组成。
硬件组成
软件配置
CAE高性能计算软件由于其计算方式的不同,对CPU、内存、IO等的要求也不同,具体分为三大类:IO密集型,通讯密集型和支持GPU加速类型。
考虑因素
应用软件兼容性Linux和Windows的互兼容性CPU兼容性厂家对操作系统的支持时间
操作系统
安装方式
Windows
图形服务器本地硬盘配置一块系统盘,全部空间都分配给c:盘。安装过程中选择带“图形界面的Windows Server”。
Linux
2路服务器本地配置一块系统盘。16路服务器本地多块配置一块系统盘。操作系统安装过程中选择“Desktop User”模式,安装完成后配置Yum,Yum源放置到/apps/rhel68下面,方便后续随时增减安装包。配置PAM动态认证插件,实现动态SSH配置,提升系统安全性。每台机器需要配置IB驱动和并行运行环境,保证并行计算可以通过IB口进行通信。并行运行环境需要配置MPICH、Open MPI和Intel MPI几种,并优先使用Intel MPI。
/opt/xcat
-
集群管理软件
/apps/<appname>
C:\(本地盘)
应用软件安装位置
计算数据区
/data
/data/<密级>/<user>
S:\(映射盘)
用户计算作业临时存储空间,不同密级的任务数据文件分开
存储规划
3:项目实施——集群时钟同步

HPC解决方案

HPC解决方案

云上使用模式: 基于提供的HPC服务进行即开即用的高性能计算。
痛点: • 资源紧张:规模小、规格旧、能力不足 • 不易用:缺乏可视化的操作 • 无弹性:无法响应突发的计算需求 • 成本高:需要自己维护集群
价值: • 灵活弹性:底层资源随时供应,从容应对突发的
计算需求 • 性能:云HPC综合性能显著由于客户现有集群,
HPC EDA方案核心技术
EDA 应用适配 智能调度 自动伸缩 混合算力 静态/动态集群 多调度器集成
Flow 自定义
核心技术
HPC EDA应用适配
HPC EDA方案
解决方案架构说明
1. 通过HPC平台动态构建集群,按 需分配计算资源。
2. 通过HPC平台满足高算力需求, 提升效率,降低成本。
• 提供丰富的软硬件环境,覆盖各个主要学科、核 心领域
• 充分发挥公有云弹性、灵活、海量、资源最新的特点,实 现HPC负载灵活调度到公有云
• 公有云与本地高性能计算中心实现网络高速互通 • 利用公有云的网络优势,实现广域用户的接入和管理,打
破物理地域的界限
利用混合云架构,实现兼顾高性能、灵活性、简化运维、卓越用户体验。
Workflow 定制
算力编排层
目标策略 集群生命周期管理
作业调度
队列管理 多调度器支持
资源分配Leabharlann 自动伸缩 作业监控 低成本算力
任务管理 多云对接 消息通知
Local Site
Cloud
轻松构建HPC混合云
基于私有云的大规模、集中式高 性能计算中心
基于公有云的高性能计算服务
• 线下大规模、集中式的高性能集群,并采用私有 云平台进行统一管理
HPC
Cluster 03 Cluster 04

HPC高性能计算 hp

HPC高性能计算 hp

HPC介绍
作用? 1、计算节点:运行并行计算程序,是HPC的主 体结构; 2、管理节点:安装有集群管理软件,作为主节 点为整个HPC系统进行系统监控、管理和作 业调度,还负责对系统一次性安装操作系统及 应用软件;

HPC介绍
3、登陆节点:用来承接用户接入HPC系统,运 行并行计算的主题程序,对程序进行编译和调 试,划分任务和数据,分配给计算节点,并且 对任务进行回收和汇总; 4、I/O节点:用来连接后台大容量数据,将所 有数据共享给整个系统,负责数据的读取和存 储调用;
HPC介绍
HPC的特点有哪些呢? 1、先进性:并行计算是目前业界较为先进的计 算体系,是融合了计算、存储、网络和软件于 一体的系统,是一个成熟的产品和技术。 2、高性能:融合了业界最先进的产品,刀片服 务器、高速Infiniband网络、光纤网络及相关 设备于一体。

HPC介绍
3、扩展性:采用刀片技术特性,用户可以根本 自己的需求增减服务器数量,灵活的改变 HPC系统的性能,扩展系统的计算和存储能 力。 4、环保特性:刀片服务器是一个系统集合体, 不同于机架式服务器,它可以充分利用刀片机 箱的电源、风扇资源,确保减少耗电量、空间 等。
HPC(高性能计算)介绍
HPC介绍
HPC概述 HPC的软硬件配置 HPC的应用环境及案例



HPC介绍

什么是高性能计算? HPC是High Proformance Compute的缩写。 它是计算科学的一个分支,用以解决复杂的科 学计算或者数值计算。由多台服务器构成的一 种松散耦合的机群,为用户提供高性能计算、 专业的应用程序等服务。
HPC介绍
5、计算网络:一般采用Infiniband网络,常用 40Gb,高带宽低延时的特性满足计算节点之 间的消息传递要求。 6、千兆网络:是整个系统中的骨干网络,用户 操作系统的部署,软件的安装、监控等。

虚拟化技术在高性能计算中的常见问题解决方案

虚拟化技术在高性能计算中的常见问题解决方案

虚拟化技术在高性能计算中的常见问题解决方案随着计算机科学和信息技术的快速发展,高性能计算(HPC)已成为许多领域研究和工业应用的重要组成部分。

虚拟化技术作为一种将物理资源抽象成虚拟资源的方法,在高性能计算中发挥着重要作用。

然而,虚拟化技术在高性能计算中也会面临一些常见的问题。

本文将介绍这些问题,并提供相应的解决方案。

问题1:性能损失虚拟化技术在高性能计算中的一个主要问题是性能损失。

虚拟化层的引入会增加处理器和内存的访问时间,从而导致计算速度减慢。

这对于对计算速度极为敏感的应用程序来说是不可接受的。

解决方案:- 使用硬件辅助虚拟化:现代处理器和系统芯片组支持硬件加速虚拟化,通过在物理层面上提供直接访问虚拟资源的功能来减少性能损失。

- 避免过度虚拟化:仅在必要时才使用虚拟化技术,不要将所有应用程序都虚拟化,以减少性能损失。

- 优化资源分配:根据应用程序需求和性能特征,合理分配虚拟资源,以最大程度地减少性能损失。

问题2:网络延迟在高性能计算中,网络延迟是另一个常见问题。

虚拟化技术引入了额外的网络层,从而增加了网络通信的延迟。

这对于需要快速交换大量数据的应用程序来说是一个挑战。

解决方案:- 合理规划网络拓扑:优化网络拓扑设计,将需要高速数据交换的虚拟机放置在物理网络拓扑的相邻位置,以减少网络延迟。

- 使用高速网络连接:采用高速网络连接技术,例如InfiniBand或以太网,以提供更低的网络延迟,从而提高性能。

- 使用网络加速技术:使用网络加速技术,如RDMA(远程直接内存访问)或TCP/IP卸载引擎,以减少网络延迟。

问题3:资源管理与负载均衡在虚拟化环境中,需要有效地管理和调度虚拟机,以实现负载均衡和资源优化。

否则,一些虚拟机可能会过载,而其他虚拟机可能会闲置。

解决方案:- 动态资源分配:根据虚拟机的负载情况,动态调整资源分配,使每个虚拟机能够充分利用物理资源,避免过载。

- 负载均衡算法:使用智能的负载均衡算法,根据虚拟机的负载情况和物理资源的可用性,将工作负载均匀地分配到不同的物理机上。

联想HPC高性能计算解决方案

联想HPC高性能计算解决方案

3
2015 LENOVO INTERNAL. ALL RIGHTS RESERVED.
TOP500中的 Lenovo System X (2010)
Nov 2010 TOP500 Entries IBM leads, followed by HP
Dell, 20 Oracle,
11
Cray, 29
Rack 计算结点
计算网 管理网
管理结点
登录结点
8
2015 LENOVO INTERNAL. ALL RIGHTS RESERVED.
I/o结点
共享数据 磁盘阵列
并行I/O L-ParaStor
联想高性能计算平台标准系统架构
9
2015 LENOVO INTERNAL. ALL RIGHTS RESERVED.
✓ Fastest system in Europe (Juelich-JUQUEEN BG/Q) ✓ Fastest Intel based system (x86-only LRZ-SuperMUC iDataPlex) 6 ✓ 201256LoEf 3N0OmVosOt enINerTgyE-eRffiNcieAnLt .syAsLteLmsRIGHTS RESERVED.
Bull , 18 Dell, 11 Oracle, 6
Appro, 24
Other, 50
IBM, 193
Cray, 31 SGI, 19
HP, 148
IBM supercomputing leadership …
✓ Most systems in TOP500 with 193 entries (HP:148, Cray:31, Appro:24)

hpc技术方案

hpc技术方案

HPC技术方案一、硬件架构高性能计算(HPC)系统的硬件架构主要由高性能处理器、高速内存、存储设备、网络通信设备等组成。

根据应用需求和计算规模,可以选择不同的硬件配置,如CPU、GPU、FPGA等加速器。

同时,需要考虑硬件设备的可扩展性和可维护性。

二、操作系统HPC系统通常采用Linux操作系统,因为它具有稳定性、可扩展性和易维护性等优点。

此外,还需要针对HPC环境进行定制和优化,如配置并行文件系统、实现作业调度等。

三、编程模型为了简化HPC应用程序的开发,可以采用编程模型和工具。

常见的HPC 编程模型包括MPI、OpenMP、CUDA等,它们可以支持并行计算和分布式计算。

此外,还有一些高级编程语言和框架,如Python、MATLAB等,也可以用于HPC应用程序的开发。

四、优化算法针对HPC应用程序,需要对算法进行优化,以提高计算效率和精度。

优化的方法包括算法改进、参数调整、代码优化等。

在优化过程中,需要结合具体的应用场景和需求,进行详细的分析和测试。

五、资源管理HPC系统的资源管理是指对系统的处理器、内存、存储等资源进行分配和管理。

可以采用资源调度工具和云技术等实现资源的动态分配和回收。

资源管理需要考虑资源的利用率和系统的高可用性。

六、数据处理HPC系统通常需要进行大规模的数据处理和分析。

可以采用分布式存储和计算技术,如Hadoop、Spark等,实现数据的分布式存储和处理。

数据处理需要考虑数据的可靠性、一致性和效率。

七、系统集成为了将各种硬件和软件组件集成在一起,形成一个稳定、高效的HPC系统,需要进行系统集成。

系统集成需要考虑系统的可扩展性、可靠性和可维护性,同时需要进行测试和性能优化。

八、运维管理为了确保HPC系统的稳定运行和持续提供高性能计算服务,需要进行运维管理。

运维管理包括系统监控、故障诊断、性能优化、安全防护等方面。

可以采用自动化工具和智能运维技术,提高运维效率和系统的可用性。

九、性能评估性能评估是HPC技术方案的重要环节,用于衡量系统的性能表现和计算效率。

高性能计算(HPC)资源管理和调度系统解决方案

高性能计算(HPC)资源管理和调度系统解决方案
优势—安全性
网络安全:整个系统只需要在防火墙上针对特定服务器开放特定端口,就可以实现正常的访问和使用,保证了系统的安全性。数据安全性:通过设定ACL(访问控制列表)实现数据访问的严格控制,不同单位、项目、密级用户的数据区严格隔离,保证了数据访问的安全性。用户任务的安全性。排他性调度策略,虚拟机隔离用户账户的安全性。三员管理:系统管理员、安全管理员、审计管理员三个权限分离,互相监督制约,避免权限过大。审计系统。保证所有与系统安全性相关的事件,如:用户管理(添加、删除、修改等)、用户登录,任务运行,文件操作(上传,下载,拷贝,删除,重命名,修改属性)等都能被记录,并通过统计分析,审查出异常。密级管理。支持用户和作业的密级定义。
基于数据库的开放式调度接口
案例 用户自定义调度策略:需要根据用户余额来对其作业进行调度,如果用户余额不足,该用户的作业将不予调度。 解决方案: 针对上述需求可以自定义作业的准备阶段,在数据库中为该阶段定义一存储过程用来检测用户余额信息表,根据作业所对应的用户余额来返回结果,例如: Step 1. 根据数据库开放schema配置该自定义调度策略 表 POLICY_CONF:POLICY_NAME | POLICY_ENABLEmy_policy_01 | true Step 2. 为自定义调度策略my_policy_01自定义作业准备阶段 表JOB_PREPARE_PHASE: POLICY_NAME | READY_FUNC | REASON_IDX my_policy_01 | check_user_balance | 4 check_user_balance 为方案中所描述的存储过程,其接口需要满足作业准备阶段自定义的接口要求,其实现细节如下:
现有的LSF集群系统不用作任何改动,包括存储、操作系统、LSF、应用程序和二次开发的集成脚本等。大大降低了系统的整合的难度和工作量。也有利于保护现有的投资。同时考虑到了作业以及相关数据的转发。降低了跨集群作业管理的难度。数据传输支持文件压缩和断点续传,提高了作业远程投送的效率和稳定性。支持https加密传输,安全性更强。

高性能计算HPC解决方案

高性能计算HPC解决方案
数据来源:
MPP 15%
Others 11%
Others1 %
CPU+ GPGPU 21 %
Others 16%
GE 36% Cluster 85%
Intel X86 89%
Linux 99%
纯CPU 79%
IB 47%
系统架构
处理器
操作系统
计算加速
互联网络
主流架构技术 - Cluster+X86+Linux+CPU+IB/GE 计算、网络加速- GPGPU加速和IB网络
目录
1 2
高性能计算挑战及趋势
高性能计算解决方案 高性能计算在全球
3
创新 - 释放高性能计算潜力
应用集成 业务调度 融合管理
融合业务管理平台
开放融合
All In Rack All In Room
液冷方案
低功耗服务器
快速交付
节能技术
加速
一体化交付
NVMe PCIe SSD 卡
低能耗产品和方案
GPU加速卡 KunLun
hpc典型组网场景hpc方案总结目录高性能计算在全球高性能计算在全球高性能计算挑战及趋势高性能计算挑战及趋势高性能计算解决斱案高性能计算解决斱案112233覆盖全球多行业的hpc建设经验内布拉斯加大学田纳西大学数字领域公司澳门气象局新加波globalfoundries新加坡科学技术研究所菲律宾气象局一期新加坡astar维多利亚大学昆士兰大学肯迪大学智利cassac天文台巴西麦肯锡大学古巴石油cupet委内瑞拉国家石油公司墨西哥水利局墨西哥农业部土耳其学术网络不信息中心ulakbim土耳其yilidiz科技大学ytu土耳其伊斯坦布尔科技大学itu土耳其harran大学土耳其yeditepe大学土耳其国家石油中国欧洲亚太北美拉美中亚沙特moi非洲中东津巴布韦高等教育科技发南非chpc国家地震防灾科技学院河北省环保局北京数据通信研究院北京交通大学北京航空航天大学西南大学首都医科大学中国电力科学院国家气象局上海天文台上海众信生物东斱物探清华大学华大基因bgp英国纽卡斯尔大学英国帝国理工大学德国汉堡大学德国吕贝克大学西班牙burgos大学法国照明娱乐公司德国戴姆勒奔驰德国爱伦堡水管局荷兰水利局意大利cnr波兰华沙大学波兰pcss波兰格但斯克大学波兰西里西亚大学波兰cyfronet波兰qumak大学俄罗斯圣彼得堡大学daimler集团选择hpc造品质最好的轿车刀片及高密服务器构建戴姆勒核心汽车研发平台劣力波兰pcss建设top80超算中心137pflopspue12全球top80超算中心劣力土耳其ytu大学打造hpc平台提升科研效率80降低初期投资成本80劣力美国数字领域构建高性能渲染平台计算密度提升25每机柜能耗降低15thankyou
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

解决方案简介面临的挑战随着当前信息的爆炸式增长,以及在使用基于x86微芯片的通用硬件方面的不断创新,通常是由多台机器来提供计算以共同执行非常复杂的任务。

这使得网络成为一个至关重要的HPC 组件。

解决方案瞻博网络提供一种高速的HPC 数据中心网络解决方案。

此HPC 基础架构非常适合于那些希望近距离互连多台10GbE 服务器,而且延迟时间不能超过亚微秒的客户。

优势• 基于10GbE 接入的模块化网络设计• 支持极大规模的低延迟连接• 提供多种功能来满足端到端的应用需求高性能计算(HPC )数据中心解决方案瞻博网络HPC 解决方案能够帮助客户执行密集的计算任务,并提供最大的网络效率和可靠性面临的挑战随着高性能集群解决方案和超级计算的日渐增加,越来越多的行业开始转向多节点集群应用。

采用HPC 技术背后的主要驱动因素是越来越多的用户可以访问不断增加的数据量,这就需要进行计算以处理这些数据。

由于基于以太网的集群解决方案的普及,以及在高性能业务中进行密集型计算和建模所带来的价值,很多企业开始重新审视计算集群为他们带来的经济效益。

下面是多个行业从HPC 技术获得明显收益的实例:• 设计工作室依靠计算集群来进行动画和视觉效果的渲染和建模。

• 工程和建筑公司使用HPC 进行建模和3D 成像。

• 石油和能源公司使用HPC 进行建模和地震研究。

• 生物技术公司利用HPC 进行建模和预测性模型分析。

• 投资公司和银行利用HPC 进行算法交易建模和快速市场分析。

• 零售公司利用HPC 获得市场情报和进行基于视频的业务分析。

• 学术界始终在挑战可以实现的最大计算能力。

一般说来,这些计算挑战对于网络提出了一系列极为苛刻的要求。

局域网的最初设计目的是将相对较近的最终用户工作站连接在一起,并支持这些工作站与远程网络进行通信。

HPC 网络对于网络的要求主要是服务器与服务器的连接性,局域网应用与现代数据中心在通信流量模式上有很大差距,与HPC 数据中心的差距就更大了。

由于这些因素,我们看到以太网大约只服务于一半的HPC 市场,Infi niband 还占有显著的市场份额。

一直以来,Infiniband 都被视作服务于那些低延迟和极高性能的HPC 集群应用的传统技术。

不单单是现有的局域网架构不能很好地支持HPC 基础架构(瞻博网络基于1GbE 的集群交换fabric 技术可以解决这一问题),而且,长期以来以太网技术(实际上是局域网的基础)也缺乏某些HPC 集群所需的高性能特征。

随着10GbE 的商业化,基于以太网的HPC 解决方案开始具有技术可行性和出色的经济性。

瞻博网络HPC 数据中心网络解决方案瞻博网络HPC 数据中心网络解决方案可为客户提供高性能网络基础架构,支持10GbE 的服务器连接与一流的边缘连接设备。

瞻博网络HPC 网络解决方案包括两种HPC 集群支持。

一种解决方案是提供超低延迟和高密度10GbE 服务器接入连接,适用于在HPC 节点间需要10GbE 连接速度的客户。

第二种瞻博网络HPC 解决方案是基于最佳1GbE 连接的fabric ,更适用于需要1GbE 连接的更广泛HPC 应用。

网络中的瞻博网络Junos 操作系统,通过简化操作和部署模块化操作系统,可以在两种情况下显著提高网络操作的灵活性和可靠性。

10GbE 解决方案10GbE HPC 数据中心网络解决方案基于瞻博网络的 QFabric™技术,可在机架中提供超低延迟(ULL),并在整个数据中心机架集群中支持高扩展性、完全可预测的低延迟传输。

瞻博网络10GbE HPC 数据中心网络解决方案提供超过6000个10GbE 端口的fabric 连接,并提供一个40GbE 平台,能够利用最多可由32个以太网链路组成的一个链路束来连接外部交换机。

瞻博网络10GbE HPC 数据中心网络解决方案由 QFX3500 Node(柜顶部署)、QFX3008 Interconnect 机箱和 QFX3100 Director 组成,能够提供业内领先、经济高效的HPC 集群连接支持。

通过实施瞻博网络HPC 数据中心解决方案,客户无需重新设计,就能够不断扩展其数据中心网络,并将关机次数降到最低。

瞻博网络HPC 生产型数据中心能够以模块化方式进行扩展,从而满足各个业务部门和计算应用的容量需求。

QFabric 系统在运行时就像一台机箱式交换机,能够提供单一交换机的简单性和单一网络的永续性。

所有柜项部署的QFX3500 Node 通过完全活跃的40GbE 链路最多可连接4个QFabric Interconnect 机箱。

服务器能够与一个或多个柜顶Node 保持活跃连接。

我们建议在每个服务器机架的柜顶部署一台QFX3500 Node ,以连接48台10GbE 服务器。

利用一根连接每台QFX3008 Interconnect 的40GB 光纤,柜顶的每台QFX3500 Node 最多能够连接 4 个 QFX3008 Interconnect 机箱,每个Node 的可用带宽总共可达160Gbps 。

同时,留出一些 QFX3500 Node 端口来连接HPC 集群外的设备和网络也很重要,因为这种连接只能基于QFabric Node 而非 QFabric Interconnect 。

每台QFX3008 Interconnect 提供16个插槽来安装具有8个40GbE 接口的线路卡,因而能够互连 128 台 QFX3500 Node ,另外,每台QFX3500 Node 能够连接4台QFX3008 Interconnect 机箱。

在这种配置下,整个HPC 集群可能支持6000多台10GbE 连接的集群服务器,同时超额开通率低至3:1。

该解决方案在减少服务器数量的同时,全面支持端到端的完全非阻塞式连接方案。

3D/EX8200 之间的连接图 1:数据中心的HPC 连接1GbE解决方案此网络布局提供一个主用/主用U型上行链路连接机制,支持冗余的主用/备用服务器NIC连接。

我们建议在每个服务器机柜顶部安装两台EX4200交换机,作为独立的集群交换配置的一部分,以便通过冗余接口将40台1GbE服务器连接到2台柜顶交换机。

如果一个EX4200集群交换配置(最多可支持500台HPC集群服务器)不够用,可以使用多台EX4200集群交换交换机连接最多两台EX8216(也连接成一个集群交换)。

每个EX4200集群交换配置可将一个8成员LAG中的8个10GbE上行链路,连接到两个EX8216集群交换成员。

为了留出足够多的可用交叉链路和上行链路端口,EX8216交换机应该只安装15个下行链路线路卡。

通过这种配置(其中所有的柜顶上行链路都为活动状态),我们最多可以将400台服务器通过8个活动的10GbE上行链路连接到汇聚交换机,从而利用完全的非阻塞硬件实现1:5的上行链路超额开通率。

如果使用一对瞻博网络EX8216以太网交换机,每个配15块线路卡,则下行链路的总数量将达到240个(留出一个线路卡用于交叉连接和服务连接)。

这种配置可有效支持最多12000台1GbE服务器的HPC数据中心集群。

瞻博网络MX系列3D通用边缘路由器可以在POD和各个位置之间实现无缝互连,这样一来,从运维角度看所有位置都是相似的,并能够根据需要保持L2或L3连接。

当然,POD之间的带宽特征将发生变化。

特性与优势• 每个POD可安装6000台或其倍数的10GbE服务器,也可安装12000台或其倍数的1GbE服务器,提供模块化的可扩展性和最优控制• 每个10GbE POD支持128个可安装48台服务器的机架• 每个1GbE POD连接支持30列,每列有10个可安装40台服务器的机架• 在整个解决方案中实现基于Junos OS的全面自动化和监控• 非阻塞ULL机架间连接,高达1.2Tbps• 上行链路超额开通率不超过3:1(非阻塞接入和核心)• PO D汇聚可支持128000个多播路由解决方案组件HPC数据中心解决方案总结瞻博网络能够为很多计算密集型行业中的高性能计算客户提供一流的解决方案,这些行业包括能源/公用事业、学术、娱乐、金融服务等等。

瞻博网络HPC数据中心网络解决方案以极具吸引力的价格提供优异的性能和功能,使企业能够非常轻松地充分利用其HPC集群的功能,而无需在集群有机扩展时重新设计或管理网络连接。

瞻博网络HPC数据中心网络基础架构具有独特的优势,企业能够利用它构建一个统一的数据中心,以实现多种业务功能,包括标准连接、存储网络和高性能通信,而无需为每种功能都部署独立的物理基础架构。

基于QFabric的HPC网络运行单一的Junos 操作系统,该操作系统在显著简化整个网络的管理和故障排查的同时,还能保持高可用性,最大程度减小故障域。

今天,客户在其HPC应用方面,能够安全地选择优于Infi niband和其它技术的QFabric。

文档编号:3510373-004-SC 2011年9月Copyright 2011, Juniper Networks, Inc. 版权所有,保留所有权利。

Juniper Networks ,Juniper Networks 标识,Junos ,NetScreen 和ScreenOS 是瞻博网络 (Juniper Networks) 在美国和其他国家的注册商标。

Junos 是瞻博网络 (Juniper Networks) 所属商标。

所有其他的商标、服务标记、注册商标或注册的服务标记均为其各自公司的财产。

瞻博网络 (Juniper Networks) 不承担由本资料中的任何不准确性而引起的任何责任,瞻博网络 (Juniper Networks) 保留不做另行通知的情况下对本资料进行变更、修改、转换或以其他方式修订的权利。

北京代表处北京市东城区东长安街1号东方经贸城西三办公楼15层1508室邮政编码:100738电话:8610-5812-6000传真:/cn/zh/上海代表处上海市淮海中路333号 瑞安广场1102-1104室 邮政编码:200021电话:8621-6141-5000 传真:8621-6141-5090 广州代表处广州市天河区天河路228号 广晟大厦28楼03-05单元 邮政编码:510620电话:8620-8511-5900 传真:8620-8511-5901成都代表处成都市滨江东路9号香格里拉中心办公楼18楼 邮政编码:610021电话:8628-6606-5255 传真:8628-6606-5250下一步要了解瞻博网络数据中心基础架构解决方案的更多信息,请访问/datacenter ,并与您当地的瞻博网络代表取得联系。

要查找您所在地区的瞻博网络合作伙伴,请查看以下的资源清单:/us/en/partners/locator 。

相关文档
最新文档