GPU加速中国石油工业前进-Nvidia
NVIDIATESLAK80显着提升吞吐能力加速科研发现

NAMD 1倍
NAMD 2.4 倍
应用程序性能基准测试 8 台 CPU 服务器对阵 1 台 Tesla K80 服务器
8台
System TChPrUo服u务g器hput Increases when
NHOoOMdDe-BsL1U倍aEre Acceler1a台teTedsla
HOOMD-BLUE 1.7 倍
Tesla K80 可大幅提升数据中心吞吐量,因此每天能够完成更多 的计算任务。如果为三分之一的系统节点配备 Tesla K80 加速 器来加速你的主要应用程序,那么数据中心的整体吞吐量就会提 升 2 倍以上。
加速计算让研究人员能够解决那些用 CPU 方式无法解决的难题。 例如,当传统系统再也无法满足科学家与研究人员不断增长的需 求时,德累斯顿工业大学利用 Tesla K80 加速器扩展了其超级计 算机。对于他们目前运行的应用程序而言,德累斯顿工业大学预 计,64 台配备 Tesla K80 的服务器可提供相当于 1,400 台 CPU 服务器的性能。
MILC
K80 服务器 MILC
1倍
1/31.4of倍System Nodes with
CPU-only System
NAMD
Tesla K80 AБайду номын сангаасcelerators
NAMD
1倍
1.7 倍
AmberM
MILC
第 3 大理由:更高的吞吐量成就更多发现
数据中心负责人面临着同样的挑战,即如何满足计算机资源需 求。这些需求通常会超出系统的可用周期。
1X
3.0X
纯 CPNUAM系D 统
1X 16X
K80 14X
CPU
12X
lammps lj势函数 gpu加速 -回复

lammps lj势函数gpu加速-回复LAMMPS(Large-scale Atomic/Molecular Massively Parallel Simulator)是一种经典分子动力学计算软件,它能够模拟和研究原子尺度下的物质行为。
LAMMPS提供了多种模型和势能函数,其中包括Lennard-Jones势能函数(LJ势函数)。
为了提高计算效率,LAMMPS 还支持使用图形处理单元(GPU)进行加速计算。
本文将介绍LJ势函数的基本原理,并详细解释如何在LAMMPS中利用GPU进行加速计算。
LJ势函数是分子模拟中常用的势能函数之一,它描述了粒子之间的相互作用。
LJ势函数可以用以下方程表示:V(r) = 4ε[(σ/r)^12 - (σ/r)^6]其中,V(r)是粒子之间的势能,r是两个粒子之间的距离,ε是能量参数,σ是长度参数。
这个势能函数有两个主要的特点:吸引力项(-ε(σ/r)^6)和排斥项(ε(σ/r)^12)。
吸引力项使得两个粒子之间的距离小于σ时,势能为负值,表示相互吸引;排斥项使得两个粒子之间的距离大于σ时,势能为正值,表示相互排斥。
在LAMMPS中,LJ势函数可以通过指定计算模型和势能系数来进行建模。
例如,可以使用pair_style命令指定势能函数的类型为LJ,并通过pair_coeff命令设置ε和σ的值。
下面是一个在LAMMPS中设置LJ势函数的示例:pair_style lj/cut 2.5pair_coeff 1 1 1.0 1.0 2.5上述命令中,pair_style lj/cut 2.5表示使用LJ势函数,并设置截断半径为2.5。
pair_coeff 1 1 1.0 1.0 2.5表示为两种类型为1的粒子设置ε和σ的值为1.0和2.5。
为了利用GPU进行加速计算,首先需要确保你的计算机有装载了支持CUDA(计算统一设备架构)的NVIDIA显卡。
然后,你需要编译LAMMPS 时启用CUDA选项。
想要使用GPU进行加速?那你必须事先了解CUDA和cuDNN

想要使⽤GPU进⾏加速?那你必须事先了解CUDA和cuDNN这⼀期我们来介绍如何在Windows上安装CUDA,使得对图像数据处理的速度⼤⼤加快,在正式的下载与安装之前,⾸先⼀起学习⼀下预导知识,让⼤家知道为什么使⽤GPU可以加速对图像的处理和计算,以及⾃⼰的电脑是否可以使⽤GPU加速。
写在前⾯:在深度学习中,我们常常要对图像数据进⾏处理和计算,⽽处理器CPU因为需要处理的事情多,并不能满⾜我们对图像处理和计算速度的要求,显卡GPU就是来帮助CPU来解决这个问题的,GPU特别擅长处理图像数据,⽽CUDA(Compute Unified Device Architecture),是显卡⼚商NVIDIA推出的运算平台。
CUDA™是⼀种由NVIDIA推出的通⽤并⾏计算架构,该架构使GPU能够解决复杂的计算问题。
它包含了CUDA指令集架构(ISA)以及GPU内部的并⾏计算引擎,安装cuda之后,可以加快GPU的运算和处理速度。
什么是显卡?显卡(Video card,Graphics card)全称显⽰接⼝卡,⼜称显⽰适配器,是计算机最基本配置、最重要的配件之⼀。
显卡作为电脑主机⾥的⼀个重要组成部分,是电脑进⾏数模信号转换的设备,承担输出显⽰图形的任务。
显卡接在电脑主板上,它将电脑的数字信号转换成模拟信号让显⽰器显⽰出来,同时显卡还是有图像处理能⼒,可协助CPU⼯作,提⾼整体的运⾏速度。
对于从事专业图形设计的⼈来说显卡⾮常重要。
民⽤和军⽤显卡图形芯⽚供应商主要包括AMD(超微半导体)和Nvidia(英伟达)2家。
现在的top500计算机,都包含显卡计算核⼼。
在科学计算中,显卡被称为显⽰加速卡。
什么是显存?也被叫做帧缓存,它的作⽤是⽤来存储显卡芯⽚处理过或者即将提取的渲染数据。
如同计算机的内存⼀样,显存是⽤来存储要处理的图形信息的部件。
显卡、显卡驱动、CUDA之间的关系显卡:(GPU),主流是NVIDIA的GPU,因为深度学习本⾝需要⼤量计算。
曙光GPU 集群推动智慧城市建设 - Nvidia

曙光GPU集群推动智慧城市建设背景信息化时代的来临给人类社会带来了翻天覆地的变化,云计算、大数据的浪潮迅速将人类社会推进到智能时代的边缘——“智慧”时代即将来临。
平安城市利用了大数据技术构建城市级综合管理信息公共服务平台,包括城市内视频监控系统、数字化城市管理系统、道路交通等多个系统,利用区域数据交换平台实现资源共享,解决目前城市发展过程中遇到的各种现实问题平安城市是一个综合性系统工程,需要整合各种资源。
曙光公司是国内最早推广城市云概念,城市云是面向“智慧城市”的城市综合信息服务系统,它以城市云计算中心为载体,整合区域内分散的硬件、软件和数据资源,并以一种更加智慧的方法实现资源共享及业务协同,能够显著提升城市管理和公共服务能力,实现“城市,让生活更美好”的最终目标。
挑战作为城市最重要的IT基础设施,城市云是构建数字宜居城市、提升城市公共服务水平和促进城市可持续发展的重要保障。
在处理城市大数据应用的问题上积极构建数字宜居城市,通过快速处理城市综合数据,以大数据处理的方式,构建城市的便利性和宜居性。
利用平安城市、只能交通系统、食品安全和节能环保等方式,为现代化城市提供更加便捷的服务。
以城市公共服务支撑平台,可以利用GPU提供的强大的计算能力为包括城市视频监控系统、数字化城市管理系统、道路交通和危险源检测等多个应用提供技术保障。
云计算的应用可以让人们能够调用全网络资源,在面向环境保护的物联网中将大规模地使用。
同时,智慧城市需要提升公共服务水平,一方面,有助于提升整个城市公共服务水平,创造一个人际关系更加和谐的城市环境;另一方面,智慧城市促进传统产业升级改造、发展新兴产业是提高城市产业经济效率,寻找区域新的经济增长点,实现城市可持续发展的重要途径。
方案曙光认为,高性能计算和云计算原本即是一对双胞胎。
曙光在高性能计算领域取得的经验,将有助于其在云计算市场的表现。
曙光城市云计算中心是智慧城市的重要基石,强大的计算能力则是为智慧城市的计算动力来源。
英伟达 tesla p100 应用性能指南- hpc 和深度学习应用说明书

HPC 及深度學習應用APR 2017TESLA P100 效能指南現代的高效運算(HPC)資料中心是解決部分全球最重要之科學與工程挑戰的關鍵。
NVIDIA® Tesla®加速運算平台利用領先業界的應用程式支援這些現代化資料中心,促進 HPC 與 AI 工作負載。
Tesla P100 GPU 是現代資料中心的引擎,能以更少的伺服器展現突破性效能,進而實現更快的解析能力,並大幅降低成本。
每一個 HPC 資料中心都能自 Tesla 平台獲益。
在廣泛的領域中有超過 400 個HPC 應用程式,採用 GPU 最佳化,包括所有前 10 大 HPC 應用程式和各種主要深度學習架構。
採用加速 GPU 應用程式的研究領域包括:超過 400 個 HPC 應用及所有深度學習架構皆是採用加速 GPU。
>若想要取得最新 GPU 加速應用目錄,請造訪:/teslaapps>若想要立即在 GPU 上使用簡易指示,快速執行廣泛的加速應用,請造訪:/gpu-ready-apps分子動力(MD)代表 HPC 資料中心的大部分工作負載。
100% 頂尖 MD 應用皆是採用 GPU 加速,以使科學家能進行從前僅有 CPU 版本之傳統應用項目無法執行的模擬工作。
在執行 MD 應用時,配備 Tesla P100 GPU 的資料中心可節省高達 60% 的伺服器取得成本。
TESLA 平台及適用 MD 的 P100 的關鍵功能>搭載 P100 的伺服器,最多可取代 40 部適用 HOOMD-Blue、LAMMPS、AMBER、GROMACS 和 NAMD 等應用的 CPU 伺服器>100% 頂尖 MD 應用項目皆採用加速 GPU>FFT 和 BLAS 等關鍵數學程式庫>每一個 GPU 之單精度效能高達每秒 11 TFLOPS>每一個 GPU 之記憶體頻寬高達每秒 732 GB檢視所有相關的應用項目:/molecular-dynamics-appsHOOMD-BLUE循序寫入 GPU 的粒子動力封裝版本1.3.3加速功能CPU 和 GPU 可用版本延展性多 GPU 和多節點更多資訊/hoomd-blueLAMMPS典型粒子動力封裝版本2016加速功能Lennard-Jones、Gay-Berne、Tersoff 更多勢能延展性多 GPU 和多節點更多資訊/lammpsGROMACS模擬含複雜連結互動的生物模型分子版本5.1.2加速功能PME ,顯性與隱性溶劑延展性多 GPU 和多節點擴展至 4xP100更多資訊/gromacs黃色在生物分子上模擬分子動力的程式套件版本16.3加速功能PMEMD 顯性溶劑和 GB 、顯性及隱性溶劑、REMD 、aMD延展性多 GPU 和多節點更多資訊/amberNAMD專為高效模擬大分子系統而設計版本2.11加速功能PME 全靜電和眾多模擬功能延展性高達 100M 原子,多 GPU,擴展為 2xP100更多資訊/namd量子化學(QC)模擬是探索新藥物與原料的關鍵,且會耗費大部分 HPC 資料中心的工作負載。
在Docker容器中运行GPU加速应用程序的方法

在Docker容器中运行GPU加速应用程序的方法近年来,随着大数据和人工智能的兴起,GPU加速成为了提高计算性能和加快训练模型速度的关键。
而Docker容器的出现,则让应用程序的部署和运行更加便捷和高效。
那么,在Docker容器中如何运行GPU加速应用程序呢?下面就为大家介绍几种常见的方法。
方法一:使用NVIDIA容器工具包NVIDIA容器工具包是一套工具和插件,用于支持在Docker容器中使用NVIDIA GPU。
它提供了完整的GPU驱动、CUDA工具和库,以及用于在容器内部访问GPU的相应插件。
使用NVIDIA容器工具包,可以方便地在Docker容器中运行GPU加速的应用程序。
首先,需要确保主机上有支持的NVIDIA GPU,并安装对应的NVIDIA驱动。
然后,在容器中添加适当的环境变量,设置NVIDIA驱动和运行时的路径。
接下来,可以使用Docker命令行中的"--runtime=nvidia"参数来启动容器,并在容器内运行GPU加速的应用程序。
方法二:使用CUDA容器CUDA是NVIDIA提供的一套并行计算和编程平台,用于支持GPU加速应用程序的开发和运行。
CUDA容器则是基于Docker容器技术创建的镜像,内部已经包含了CUDA运行时和工具。
通过使用CUDA容器,可以轻松地在Docker中运行GPU加速的应用程序,并且无需手动安装和配置CUDA环境。
首先,需要在Docker中安装NVIDIA Container Toolkit。
然后,可以使用"NVIDIA/cuda"镜像作为基础镜像,构建自己的应用程序镜像。
在构建镜像时,可以根据需要添加所需的CUDA工具和库。
最后,使用Docker命令行启动容器,并在容器内运行GPU加速的应用程序。
方法三:使用第三方工具除了NVIDIA容器工具包和CUDA容器,还有一些第三方工具可以帮助在Docker容器中运行GPU加速应用程序。
显卡NVIDIA
NVIDIA百科名片公司LOGOnVIDIA(全称为nVIDIA Corporation,NASDAQ:NVDA,官方中文名称英伟达),创立于1993年1月,是一家以设计显示芯片和主板芯片组为主的半导体公司。
nVIDIA亦会设计游戏机内核,例如Xbox和PlayStation 3。
nVIDIA最出名的产品线是为游戏而设的GeForce 显示卡系列,为专业工作站而设的Quadro显卡系列,和用于计算机主板的nForce芯片组系列。
nVIDIA的总部设在美国加利福尼亚州的圣克拉拉。
是一家无晶圆(Fabless)IC半导体设计公司。
现任总裁为黄仁勋。
目录NVIDIA概述1NVIDIA品牌NVIDIA TNT1NVIDIA GeForce1NVIDIA GoForce1NVIDIA Quadro1NVIDIA nForce1NVIDIA产品台式机产品1平台1工作站1移动产品1手持终端1消费类电子产品NVIDIA发展1NVIDIA展望产业巨变后回顾历史11995年创新起步的NV111998年Riva128的锋芒杀气11999年Riva TNT2再接再厉1硬件光影与变换!Geforce 2561攀上巅峰Geforce 2 GTS1Shader初体验Geforce 31销量之王Geforce 4 MX4401销量之王二世Geforce FX 52001王者回归Geforce 6800 Ultra1双轨并行Geforce 66001核心系列更名Geforce 7800 GTX1威力双联装Geforce 7950 GX21统一渲染新时代Geforce 8800 GTX1平民高清+DX10 Geforce 8600 GT18系在继续9系在延续18800再升级全规格G92出击1千元重地9600GT全力把守1最强单卡双核的“心”1又一款G92 豪华98GTX诞生1未来探秘NVIDIA进入第三代DX10时代!NviDIA显卡缺陷CEO黄仁勋简介展开编辑本段NVIDIA概述NV创始人:黄仁勋NVIDIA公司(Nasdaq代码:nvda)是全球可编程图形处理技术领袖。
Docker中使用GPU加速的实践与技巧
Docker中使用GPU加速的实践与技巧概述:随着人工智能和深度学习的发展,使用GPU资源进行加速已成为实现高性能计算的重要手段。
在容器化技术中,Docker是最常见的选择之一。
本文将介绍如何在Docker中实现GPU加速,并分享一些实践经验和技巧。
1. GPU加速的必要性在许多计算密集型任务中,如图像识别、自然语言处理和数据挖掘等,使用GPU进行计算可以大幅度提升计算速度。
GPU的并行计算能力远远超过传统的中央处理器(CPU),因此能够加速深度学习模型的训练和推理过程。
而Docker作为一个轻量级而强大的容器化平台,可以方便地管理和部署应用程序和环境。
2. Docker中的GPU加速在Docker中启用GPU加速需要满足以下条件:- 操作系统需要支持GPU,例如Ubuntu、CentOS等;- 安装具有适当版本的NVIDIA驱动程序;- 安装CUDA工具包。
一旦满足这些条件,我们就可以在Docker容器中使用GPU资源了。
下面是一些常用的实践技巧:2.1. 使用nvidia-docker工具nvidia-docker是Docker的一个插件,可以方便地在容器中使用GPU。
通过使用nvidia-docker命令代替普通的docker命令,我们可以确保GPU资源正确地被容器访问。
首先,需要安装nvidia-docker工具,然后在启动容器时,使用nvidia-docker run命令代替docker run命令。
2.2. 显存的限制和管理在使用GPU加速时,显存的管理非常重要。
默认情况下,Docker将所有可用的GPU显存都分配给容器。
然而,在多个容器同时运行的情况下,这可能会导致显存不足的问题。
为了解决这个问题,可以使用nvidia-smi命令来查看显存的使用情况,并使用--gpus参数来限制容器可以使用的GPU数量。
2.3. GPU驱动和CUDA版本的管理在使用GPU加速时,GPU驱动程序和CUDA版本的兼容性是一个关键问题。
GPU计算解决方案成功案例
GPU计算解决方案-- 成功案例NVIDIA® Tesla™解决方案帮助我们更快、更准确地解决了多个行业中世界上最重要的计算难题。
CAD/CAM/CAE 计算金融计算流体动力学學地理信息服务成像生命科学學石油天然气NVIDIA® Tesla™解决方案帮助我们更快、更准确地解决了多个行业中世界上最重要的计算难题。
挑战虚拟时装表演能否成为未来的潮流?这一问题尚不确定,但以色列佩塔提克瓦的OptiTex Ltd.公司已经利用其3D计算机辅助设计/计算机辅助制造(CAD/CAM)设计技术将整个设计业带入了全新境界。
传统上,设计师必须真正创造出实际衣物线条的织物样品来进行原型制作以及为潜在投资者提供展示。
这是一个相当耗时且代价高昂的过程,会产生很大的浪费。
OptiTex3D实现了这一过程的现代化。
该软件通过让设计师在虚拟模特身上模拟衣物设计的外观和运动,从而让他们在剪裁第一块布料之前就能够审视、优化以及衡量这些样品。
解决方案为解决这一设计难题,OptiTex利用NVIDIA® CUDA™软件开发环境来重新构建其衣物模拟引擎的数据与算法以使其能够在GPU上运行。
GPU计算解决方案让开发人员能够消除CPU环境下的瓶颈,最高实现10倍的性能提升。
季节性系列产品的开发时间一般为190天。
但是使用了重新构建的OptiTex 3D解决方案之后,上市时间被缩短为短短的35天。
OptiTex, Ltd.公司总裁兼首席执行官Ran Machtinger表示:“OptiTex 3D向GPU平台的转变大大提升了我们产品的效率,进一步为我们的客户提供了巨大效益。
有了实时能力,制版过程将彻底改变。
纺织业客户将不必依赖用户体验以及详尽的测试来确定最终版型,因为人们始终可以在3D模式下查看这些服装。
影响由于GPU计算解决方案带来了实时性能,因此设计师能够降低生产成本并缩短设计周期时间。
服装、汽车、航空等各行各业的用户实际上无需浪费布料、纸张、用电、工时以及快递费用,从而节约了材料、电力、以及制造费用。
GPU入_技_介_
GPU内部架构
CPU: 强控制弱计算,更多资源用于缓存 CPU: 强计算弱控制,更多资源用于数据计算
GPU内部架构
• GPU体系架构在不断的发展,以GT200体系架构为代表对 GPU的并行层次进行分析。Tesla GT200由两部分组成, 分别是可伸缩流处理器阵列(Scalable Streaming Processor Array,SPA)和存储器系统,它们由一个片上 互联网络连接。如下图所示,可伸缩流处理器阵列由若干 个线程处理器群(Thread Processing Cluster,TPC)构成, 每个TPC包含2~3个流多处理器(Streaming Multiprocessor,SM),每个流多处理器中包含8个流处理 器(StreamingProcessor,SP)。流处理器有独立的寄存器 和指令指针,但缺少取指和调度单元,而流多处理器才拥 有完整前端,包括取值、译码、发射等。从结构上看,每 个流多处理器相当于一个8路单指令流多数据流(Single Instruction Multiple Data,SIMD)处理器,不同的是, GPU实现了自动向量机化,NVIDIA将之命名为单指令流 多线程(Single Instruction Multiple Thread,SIMT)
CUDA编程模型
• warp warp是硬件特性带来的概念,在CUDA C 语言中是透明的(除vote函数),但应用中 不能忽略 一个warp中有32个线程,这是因为SM中有 8个SP,执行一条指令的延迟是4个周期, 使用了流水线技术 一个half warp中有16个线程,这是因为执 行单元的频率是其他单元的两倍,每两个 周期才进行一次数据传输
GPU内部架构
• 由于CPU和GPU设计目标的不同导致了两者在架构、并 行层次和性能方面差异较大: CPU的重线程与GPU的轻线程 CPU的MIMD多核与GPU的SIMT众核(x7560) CPU内存、缓存与GPU存储器 • GPU是以大量线程实现面向吞吐量的数据并行计算,适合 于处理计算密度高、逻辑分支简单的大规模数据并行负载; 而CPU则有复杂的控制逻辑和大容量的缓存减小延迟,擅 长复杂逻辑运算。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
GPU加速中国石油工业前进
背景
2014年底,曙光公司向中原油田用户交付了新的GPU集群,应用于
油田地质资料勘探及处理。此项目标志着曙光HC2000异构计算平台
在石油领域的又一个新的制高点。
中原油田是中石油下属的第二大油气田,总部位于河南省濮阳市,主
要勘探开发区域包括东濮凹陷、普光气田和内蒙探区。
石油,被誉为现代工业文明的“血液”,石油作为能源的重要组成部
分,在我国一次能源消费和生产中所占的比重迅速上升并基本稳定在
一定的高水平上,中国也由石油出口国转变为石油进口大国。中国的
石油勘探尚处在世界中等成熟阶段,石油储量仍处于高基值稳定增长
时期,但勘探难度越来越大。中国的主力油田总体已进入递减阶段,
稳产难度不断加大,但开发上仍有潜力可挖。如何利用超级计算机来
准确分析地震资料,判断石油分布状况,成为制约石油工业进一步发
展障碍。
曙光公司即时推出的HC2000异构计算框架,为石油领域用户提供
GPU异构计算解决方案,用强大的超级计算机实现地震资料数字处
理,用GPU加速中国石油工业前进的动力。
挑战
为什么地震资料数字处理需要高性能计算机呢?有以下三个主要的原
因:
第一, 计算量巨大。通常一条 10 千米的二维地震测线仅计算一次
就需要计算 2880万次,若是100千米则需要计算3亿次。
全国每年要处理的二维地震数据工作量在10万千米以上,
而且还在持续增长中。地震资料处理需要用多种方法多次计
算,如此一来,计算需求以几何级数方式增长,传统的计算
平台已无法满足石油领域的计算需求。
第二, 计算过程难。一个简单的处理过程需要用二十多种处理方
法,涉及到高等数学的褶积、反褶积、波动方程、迭代等复
杂的数学算法,各种算法归结到最终,还是需要超级计算机
进行计算完成处理流程。
第三, 计算强度高。面对地下地质情况越来越复杂,地震勘探难度
越来越大,在数字处理中就需要不断增加一些新的更为复杂
的处理方法,这就需要重新处理,反复处理,需要在短时间
内获取基本的处理结果,以便对方法进行及时修正。
面对石油领域的计算特点,GPU集群拥有先天的优势处理石油计算问
题。GPU拥有大量的ALU计算单元,控制逻辑单元相对简单,可以
专注于计算过程并行化。相比于X86平台,同样功耗下,GPU平台可
以提供数倍于CPU的计算能力。
方案
地震资料首先要进行常规处理。常规处理是一种基础处理,它是以提供
能够清晰反映出地下地层形态和各种地质现象为主要目的的一套处理方
法。常规处理的几个主要处理流程为预处理、水平叠加处理、叠加偏移
处理。
1. 预处理。要把地震记录的格式转换成计算机能够识别的格
式。
2. 水平叠加处理。对多次观测的每个地震道,按反射点的位置
叠加成一个道,逐点叠加,直到把一条测线的所有反射点
做完。这样就可以得到一条反映地下地层形态的水平叠加
剖面。
3. 叠加偏移处理。水平叠加的基础上进行的处理,纠正水平叠
加剖面上的偏差。地层倾角越大时这种偏差越大,这就更
需要通过叠加偏移处理加以纠正。所以,叠加偏移处理也
可以叫做纠偏处理,这样处理后才能得到反映地下地层真
实形态的叠加偏移剖面。
常规处理的好坏不仅对整个处理工作,也对能否做出正确的地质解释有
极大,而计算在资料处理中起到了决定性作用。针对石油领域的特殊计
算需求,曙光为石油领域推出了HC2000异构计算框架,向用户提供软
硬件一体的完整计算方案,包括
1. 计算节点。采用曙光天阔W580I-G20 GPU专用服务器为计算
节点,支持双路Intel E5-2600 V3系列至强处理器,最大支
持1TB内存空间,搭载4片目前主流的NVIDIA Tesla K40/K80
GPU加速卡,单台计算节点可提供24T单精度计算能力。
2. 网络互联。针对石油应用文件IO量巨大的特点,整个集群配
置业界最快的56G FDR IB网络。
3. 存储系统。采用曙光自行研发的ParaStor200并行文件系统,
为用户提供高效、稳定、易扩展的文件系统
4. 作业调度系统。曙光为石油用户开发了适用于石油应用的
Gridview作业调度系统,满足大规模环境下的集群对GPU
资源的统一调度管理,提高集群利用率。
影响
中原油田是曙光的重要客户,我们为用户提供计算平台的持续交付。最
新一次GPU集群的落地,是曙光在石油领域的一个标杆,也是曙光再
次为石油领域用户提供完整的异构计算平台整体解决方案的新起点。
曙光已经连续6年蝉联国内高性能机市场占有率第一,在国内HPC市
场,其他厂商难以望其项背,NVIDIA是世界上个最优秀的加速器生产
商。曙光和NVIDIA公司的精诚合作,必将为国内石油用户提供更有价
值的计算平台。