高性能计算论文高性能计算机论文
网格技术网格计算应用论文

浅析网格技术及网格计算的应用摘要网格计算是伴随着互联网技术的迅速发展而产生的一种新型分布式计算模式,以实现大规模分布式资源共享及协同问题求解为目标。
网格计算非常适合企业计算的需求,很多企业都是通过采用网格计算来解决自己关键的业务需求。
介绍了网格的基本概念、特点、意义以及网格计算的应用。
关键词网格网格计算一、网格的概念网格(grid)是一种先进的计算机基础设施,是一种能带来巨大存储、处理能力和其他it资源的新型网络。
网格能根据用户的一些要求自动地生产知识,它能通过特定的程序运行把从数据源(传感器、贵重设备、数据库、信息库等等)得到的原始数据,加工成信息和知识。
网格可以自动地找到数据源、高性能计算机和程序软件。
一个网格拥有多台分布在全国各地的高性能计算机,这些计算机被称为网格结点。
二、网格的意义网格是借鉴电力网的概念提出来的一种全新的、便捷的计算模式,它的最终目标是使得用户在使用网格时,能像使用电力或者自来水一样方便。
总体来说建设网格的意义有以下四个方面:(1)能够解决计算能力的限制。
网格可以通过互联网将分散的计算机、存储器、集群、计算机池、仪器等各种各样的资源进行集成,因而无论是资源的种类或是计算能力都比以往大大增强,从而实现了联合并放大全社会的计算能力。
(2)能够解决资源地理位置的限制。
网格是建立在互联网技术之上的一组新兴技术,无论资源的地理位置、管理域如何,只要通过互联网加入网格,那么就可为网格用户所使用,并且对于用户本身,他们不需要知道也并不关心资源的实际地理位置。
(3)能够提高资源的利用率。
计算机的实际使用情况表明,大量的计算资源处于空闲状态,没有被有效利用;然而却存在很多复杂的应用由于没有足够的计算资源而无法得到解决。
通过网格这一新的基础设施,我们能够集成世界范围的各种资源,并为用户提供访问这些资源的良好接口,于是资源的使用变得方便又快捷,空闲资源就得以被有效利用。
(4)能够打破传统资源共享与协作方面的限制。
计算机科技与应用专业毕业论文--基于Opengl的3D游戏设计

摘要随着时代进步,从简单的色块堆砌而成的画面到数百万多边形组成的精细人物,游戏正展示给我们越来越真实且广阔的世界。
对于近几年游戏的发展来说,老式2D游戏的画面、游戏性、互动性已经无法满足各类玩家的需要,而3D游戏无论是在游戏画面的真实程度、操作的流畅程度、以及故事背景方面的优越性都非常突出。
在这种发展趋势下,2D游戏所占领的市场将会变得微乎其微,3D游戏的开发将会成为整个游戏制作领域的一种趋势。
针对于3D游戏开发,OpenGL作为一个3D的应用程序编程接口(API)来说,是非常合适的。
OpengGL作为与硬件无关的软件接口,只要操作系统使用了OpengGL适配器就可以打到相同的效果。
它又是一个开放图形库,在跨平台领域上非常便利。
并且它具有优良的移植性,是广大3D游戏开发者的首选。
本论文为利用OpengGL进行3D射击游戏的设计与开发,采用碰撞检测、粒子系统、MD2模型绘制、3D声效等技术,最终实现一个射击游戏。
关键词:游戏, 基于OpengGL,三维, 射击游戏Abstract: Along with the progress of the times,fine characters from simple color swatch built the picture to the millions of polygons, the game is to show us more and more real and the wide world.For the development of the game in recent years, the old 2D games' screen ,games andinteractive have been unable to meet all kinds of game player needs, while 3D regardless of the game on the game screen reality, smooth operation, and the background of the story of the superiority is very prominent.In this trend, 2D game occupied market will become very little, the development of 3D games will become the game made a trend in the field.For 3D game development, OpenGL as the application programming interface of a 3D (API), is a very suitable. OpengGL as the interface of the software and hardware independence, as long as the operating system uses the OpengGL adapter can reach the same effect. It is also an open graphics library, cross-platform in areas very convenient. And it has good transplantation, is the 3D game developer's choice.In this paper, the design and development of 3D shooting game is to use OpengGL, the collision detection, particle system, MD2 model, 3D sound rendering technology, the ultimate realization of a shooting game.Keywords game, OpengGL, 3D, shooting game目录1 引言 (1)1.1 课题的背景及意义 (1)1.2 毕业设计的任务 (1)1.3 国内外现状的研究 (2)1.4 开发技术与开发平台 (3)1.4.1 开发技术 (3)1.4.2 开发平台 (3)2 OpenGL简介与3D图形学相关 (5)2.1 OpenGL简介 (5)2.1.1 OpenGl特点 (5)2.1.2 OpenGL功能 (6)2.1.3 OpenGL渲染 (7)2.2 3D图形学相关 (8)2.2.1 向量与矩阵 (8)2.2.2 变换 (8)2.2.3 投影 (8)2.2.4 3D裁剪 (9)3 游戏设计 (11)3.1 游戏的组成 (11)3.2 游戏的结构 (11)3.3 本游戏设计 (12)4 关键技术 (15)4.1 摄像机漫游 (15)4.2 碰撞检测 (16)4.3 粒子爆炸 (19)4.4 云雾效果 (20)4.5 简易AI (21)4.6 3D模型 (23)4.7 3D音效 (26)4.8 游戏场景随机地形 (28)5 运行游戏 (30)结论 (36)参考文献 (37)致谢 .................................................................................................................................. 错误!未定义书签。
Google三大论文(中文)

Google三大论文(中文)Google三大论文(中文)Google是世界上最大的互联网公司之一,也是许多人使用的首选搜索引擎。
Google的成功离不开他们所采用的先进技术和创新思维。
在过去的几十年里,Google发表了许多重要的研究论文,这些论文对于推动计算机科学和人工智能领域的发展起到了巨大的贡献。
本文将介绍Google三篇重要的论文,它们分别是PageRank算法、DistributedFile System和MapReduce。
一、PageRank算法PageRank算法是Google搜索引擎的核心算法之一。
这个算法是由Google的创始人之一拉里·佩奇(Larry Page)和谢尔盖·布林(Sergey Brin)于1998年提出的。
PageRank算法通过分析与网页相关的链接数量和质量来评估网页的重要性,从而确定搜索结果的排名。
PageRank算法基于图论的概念,将互联网看作一个巨大的有向图,其中每个网页都是图中的一个节点,而网页之间的链接则是图中的边。
根据这些链接的链入和链出关系,算法可以计算出每个网页的PageRank值。
具有高PageRank值的网页会在搜索结果中排名较高,从而提高网页的可见性和流量。
二、Distributed File SystemDistributed File System(分布式文件系统)是Google为解决海量数据存储和处理问题而开发的一种分布式文件系统。
该系统最早在2003年的一篇名为《The Google File System》的论文中被介绍。
这个论文由Google的工程师们撰写,并提出了一种基于分布式架构和冗余存储的文件系统设计方案。
Distributed File System的设计目标是实现高可靠性、高性能和可扩展性。
它通过将大文件切割成小块并分布式存储在多台服务器上,同时也保证了数据的冗余存储和高可靠性。
这使得用户可以快速地读取和写入大规模的数据。
计算机网络毕业论文

计算机网络毕业论文目录1. 内容综述 (2)1.1 研究背景 (4)1.2 研究意义 (5)1.3 国内外研究现状 (5)1.4 论文结构 (6)2. 计算机网络基础 (8)2.1 网络协议栈 (9)2.2 数据链路层 (10)2.3 网络层 (12)2.4 传输层 (13)2.5 应用层 (15)3. 网络分类与组网技术 (17)4. 网络协议 (18)5. 网络安全 (19)5.1 网络安全的基本概念 (21)5.2 加密技术 (23)5.3 入侵检测与防御 (24)5.4 网络安全策略 (26)5.5 计算机病毒与恶意软件 (28)6. 网络优化与性能分析 (29)6.1 网络性能参数 (31)6.2 数据包调度算法 (33)6.3 流量工程与QoS (34)6.4 网络性能模拟与测试 (36)7. 实例与应用 (37)7.1 网络应用案例研究 (39)7.2 分布式计算框架 (40)7.3 云计算网络 (42)7.4 IoT与机器通信 (44)8. 研究展望 (45)1. 内容综述在探讨计算机网络的毕业论文中,首先需要明确几个核心概念和术语。
计算机网络的核心元素包括资源的共享、通信的建立和管理、数据的安全传输等。
论文将围绕数据通信、网络协议、数据交换与路由、网络安全以及未来网络技术的发展等几大方面进行深入探讨。
计算机网络技术的快速发展对信息化社会的发展起到了极大推动作用。
本论文旨在探索当前计算机网络的基本原理、关键技术以及未来发展趋势,同时通过分析现存问题,提出解决这些问题的可行方案。
研究这一领域的意义在于,它有助于理解底层网络的结构与性能,进而推动网络技术的创新和应用,并对培养未来网络工程领域的专业人才有重要的训练价值。
计算机网络概述与历史发展:简述计算机网络的演进过程,分析不同历史时期的基本网络特征和技术。
网络体系结构和基础协议:详细剖析网络开放系统互联(OSI)模型,并解释通信过程中用到的基础协议,如TCPIP协议族。
基于单片机设计的计算器毕业论文

南昌工程学院毕业设计 (论文)机械与电气工程学院(院)系电气工程及其自动化专业毕业设计(论文)题目基于单片机设计的计算器(硬件)学生姓名班级学号指导教师完成日期 2010 年 6 月 18 日基于单片机设计的计算器(硬件)The calculator based on the design of MCU (hardware)总计毕业设计(论文) 34 页表格 6 个插图 18 幅摘要近年来随着计算机在社会领域的渗透和大规模集成电路的发展,单片机的应用正在不断地走向深入,由于它具有功能强,体积小,功耗低,价格便宜,工作可靠,使用方便等特点,因此特别适合于与控制有关的系统,越来越广泛地应用于自动控制,智能化仪器,仪表,近年来随着计算机在社会领域的渗透和大规模集成电路的发展,单片机的应用正在不断地走向深入,由于它具有功能强,体积小,功耗低,价格便宜,工作可靠,使用方便等特点,因此特别适合于与控制有关的系统,越来越广泛地应用于自动控制,智能化仪器,仪表,数据采集,军工产品以及家用电器等各个领域。
作为微型机的一个主要分支,单片机在结构上的最大特点是把CPU、RAM和ROM存储器、定时器和多种I/O接口电路集成在一块超大规模集成电路芯片上。
从它的组成和功能来看,一块单片机芯片其实就是一台计算机。
本次设计是采用MSC-51单片机来设计的六位数计算器, 采用C语言进行程序编写实现计算器功能。
外接4X5的键盘,通过键盘扫描来完成输入数的控制,输出采用1602液晶显示,并设有清零键可随时完成计算与显示的清零。
计算器将完成的0至99999整数的加/减/乘/除运算。
关键字:单片机AT89S52 1602液晶矩阵键盘 C语言AbstractIn recent years, as computer penetration in the social field and large-scale development of integrated circuits, microcontroller applications are continually deepening, because of its powerful function, small size, low power consumption, cheap, reliable, easy to use, etc. therefore particularly suitable for systems with control of more and more widely used in automatic control, intelligent instruments, meters, data acquisition, military products and home appliances fields.As one of the main branch of microcomputer, microcontroller in the structure of the biggest feature is the CPU, RAM and ROM memory, timer and multiple I / O interface circuit integrated on a VLSI chip. The composition and function from its point of view, a single chip isactually a computer.This design is the use of MSC-51 microcontroller to design the six-digit calculator, using C programming language to achieve calculator functions. 4X5external keyboard, the keyboard scan to finish by the number of control values and the 1602 output with human-type liquid crystal to achieve,and has cleared at any time to complete key calculation and display clear. Calculator to complete from 0 to 99999 plus / minus / multiply / divide.Key words: MCU AT89S52; LCD1602; Matrix Keyboard; C language目录摘要 IABSTRACT II第一章引言 11.1 选题的依据及课题的意义 11.2 研究概况及发展趋势综述 11.3 实验设计要求 21.4.总体设计思路 2第二章设计方案论证与选择 32.1 控制部分的设计方案论证与选择 32.2 显示电路的设计方案论证与选择 42.3 单片机电源部分的设计方案论证与选择 6 2.4 键盘设计方案论证与选择 82.5 单片机复位电路的设计方案论证与选择 9 2.6 系统组成 10第三章重要器件的知识介绍 113.1 单片机的知识介绍 113.1.1单片机功能特性 113.1.2单片机各引脚功能说明 113.1.3单片机时钟电路 133.1.4 LED提示电路 143.2 1602液晶显示资料 15第四章计算器的软件编程 164.1 程序设计思想 164.2 4*5键盘扫描程序 174.3 1602液晶显示程序 18第五章计算器使用说明 19结语 20参考文献 21致谢 22附录 23第一章引言单片机设计的计算器在人们的日常中是比较的常见的电子产品之一。
新基建中的高性能人工智能算力基础设施的架构与测评

中国工程院院士、清华大学计算机科学与技术系教授郑纬民人工智能算力基础设施的重要性今年4月,国家发改委首次明确了“新基建”的范围。
人工智能是“新基建”的内容之一。
“新基建”中一定会花很多钱。
新时代人工智能的发展包含大数据、算法和算力。
对于人工智能“新基建”而言,需要花不少钱购买一台大机器,用来处理其中人工智能算力的问题。
人工智能有多种多样的应用场景,主要包括三类。
第一类应用是图像检测、视频检索。
这出现在安防、第二类应用是AlphaGo。
AlphaGo包括能做什么事情?一是语言翻译。
将中文翻译为英文,将英文翻译为日文,将日文翻译为阿拉伯文……二是自动问答。
不仅能够回答简单的问题,而且需要能够回答非常复杂的问题。
三是生成文本摘要和创作。
需要机器在读完一篇文章之后写出三句话的摘要,或者需要机器将给定的三句话扩写成一篇文章、一部剧本。
这类应用问题中有些很复杂,要求机器具有很大的规模。
语言模型发展迅速。
2015年,马斯克和其他人创建了OpenAI公司。
2019年,OpenAI核算了从2012年以来所有模型所用的计算量。
结果发现,最大规模人工智能模型所需算力已经增长了30万倍,每三四个月翻一番,也就是说每三四个月计算机的算力扩大一倍,这比摩尔定律厉害。
摩尔定律指出,也就越大。
这就引发一个问题:在哪台机器上能够训练这么复杂、参数数量这么多的模型?根据GPT-3 的论文,所有模型都是在高带宽集群中的英伟达V100 GPU上进行训练的,训练费用预估为1200万美元。
1万块英伟达V100 GPU大概需要训练15天。
下一代人工智能的发展将继续大规模人工智能算力基础设施的支持。
GPT-3取得了很好的进步,但与人类智能相比还有很大差距。
人脑有100亿个神经元,有100万亿个突触,GPU与此相比还距离很远。
因此,下一代人工智能模型可能具有超过万亿个参数。
图灵奖获得者Geoffrey Hinton认为,如果模型的参数个数是4.398万亿,即现在GPT-3参数数量的25倍,就可以包含一切,但现有计算机系统无法胜任其训练任务。
基于 PETSc 的有限元高性能求解方法
基于 PETSc 的有限元高性能求解方法高怀玉;张峰;秦忠国【摘要】Based on the application and development platform provided by the calculation toolbox PETSc , a parallel linear solver was developed for single multi-core computers .Data and operations that are necessary for an FEM analysis were packaged in the form of a class provided by C++, and the linear FEM iteration method was used to solve problems in parallel.Test results show that 3G memory and four nuclear computers can compute a 3D linear FEM with a number of nodes of 800 000 .The speedup ratio was up to 1.81 for two processes and 3.24 for four processes .The solver has a good ability to adapt to morbid equations .Iteration can converge for the finite element model with elastic modulus of materials differing by 100 000 times.%基于科学计算工具箱PETSc提供的应用开发平台,针对单机多核计算机开发出一种线性并行求解器。
基于gpu的分组密码并行破解方法分析
三、GPU有着良好的可编程性,支持如C语言等多种高级语言编程,对大规 模的数据流并行处理方面具有明显的优势[13]。NVIDIA在2007年推出了CUDA 并行计算技术,将GPU通用计算(GPGPU)从图形硬件流水线和高级绘制语言中解
蔓E戈学甄士学位论文
放出来,没有图形学编程经验的开发人员也可以在单任务多数据模式下完成高性 能计算,从而使GPGPU开发的门槛大大降低[143【15]。
significant improvement on dealing with the data—intensive issues In this article。we mainly diSCUSS the GPU architecture*ith a
detailed analysis of the programming model of CUDA and its implementation mechanisms for paraIlel computing Then we propose a new general data parallel framework based on the existing brute force attack algorithms of block cipher,which i s off]oading the part of huge calculations for cracking from CPU to GPU,in order to improve the computing throughput.
计算机专业毕业论文选题方向有哪些
计算机专业毕业论文选题方向有哪些
在计算机专业领域,毕业论文的选题方向涵盖了非常广泛的主题和领域。
学生在选择论文选题时应该根据自己的兴趣、擅长以及未来的职业发展方向进行选择。
以下是一些常见的计算机专业毕业论文选题方向:
数据科学与人工智能
•数据挖掘与分析
•机器学习与深度学习
•自然语言处理
•图像处理与计算机视觉
•数据可视化与可视分析
软件工程与开发
•软件需求分析与规格化
•软件架构设计与评估
•软件测试与质量保证
•敏捷开发方法与实践
•DevOps与持续集成/交付
网络与分布式计算
•网络协议设计与分析
•网络性能优化与调试
•区块链技术与应用
•云计算与大数据处理
•安全与隐私保护技术
计算机系统与体系结构
•多核处理器设计与优化
•嵌入式系统开发与调试
•操作系统原理与设计
•虚拟化技术与云原生应用
•高性能计算与并行算法
智能物联网与边缘计算
•物联网设备与传感器网络
•边缘计算与边缘智能
•轻量级通信协议设计
•物联网数据分析与挖掘
•智能家居与可穿戴技术
以上仅是计算机专业毕业论文选题的一部分方向,学生可以根据自己的兴趣、实际需求及导师的指导选择适合的研究方向。
在选题时要注意选择具有一定挑战性和创新性的课题,以便在毕业论文中展现自己的学术能力和研究水平。
计算机网格技术应用论文
浅谈计算机网格技术与应用摘要:计算机网格一词来源于电力网格(powergrid)一词,目前一般都简称为“网格”(grid),这项新技术是从20世纪90年代中期发展起来的,它把互联网上分散的资源融为有机整体,实现资源的全面共享和有机协作。
使人们能像使用一台计算机那样使用internet中的各种资源,把internet从通讯和信息交互平台提升到资源共享和协同工作的平台。
关键词:互联网;数据;计算和信息资源中图分类号:tp393.01 文献标识码:a 文章编号:1007-9599 (2011) 22-0000-01the technology and applications of computer gridfan zhongping(qianjiang college hangzhou normal university,hangzhou 310000,china)abstract:the term comes from the electricity grid computer grid(powergrid)word,now generally referred toas”grid”(grid),this new technology from themid-1990s,developed,and it spread on the internet financial resources as an organic whole,to achieve full sharing of resources and organic collaboration.so that people can use a computer so as to use the internet in a variety of resources from the internet to enhance communication and informationexchange platform to resource sharing and collaboration platform.keywords:internet;data;computing and information resources随着人们在日常工作遇到的商业计算越来越复杂,人们迫切需要数据处理能力更强大的计算机,超级计算机的价格显然阻止了它进入普通人的工作领域。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
高性能计算论文高性能计算机论文基于高性能计算的CAE技术在大型盾构施工仿真中的应用摘要:为加强盾构施工的风险提示及防范措施,在总结近几年研究成果的基础上,建立大规模三维数值模型,对泥水盾构施工的各种复杂施工步骤和环境因素进行拟实和简化模拟.在模拟过程中使用“曙光”超级计算机和ANSYS并行求解器,保证大量计算工况的前、后处理及求解分析.2条长江隧道的盾构施工数值仿真表明,该方法能有效预测盾构推进引起的土层沉降、衬砌变形和盾构姿态等.关键词:盾构机;隧道施工;仿真;并行计算; ANSYSApplication of CAE technology based on high performance computing in large-scale shield construction process DING Junhong 1, LI Genguo 1, JIN Xianlong 2, CAO Yuan 2(1. Shanghai Supercomputer Center, Shanghai 201203, China;2. School of Mechanical Engineering, Shanghai Jiaotong University, Shanghai 200240, China)Abstract: To improve the risk warning and preventive measures in shield construction, based on the research achievements in recent years, a large-scale 3D numerical model is established to simulate virtually the various complicated steps and environmental factors in slurry shield tunnelingconstruction with simplified method. The Dawning supercomputer and ANSYS parallel solvers are used to guarantee the pre/post treatment and solving of a great number of calculating cases. This method is applied to the shield construction of the two tunnels across the Yangtze River, and the results show that it can predict effectively the soil layer settlement, lining distortion, shield machine posture, and so on, during the shield tunneling process.Key words: shield machine; tunneling construction; simulation; parallel computing; ANSYS0 引言进入21世纪后的头10年,我国以世界经济领头羊的身份持续保持蓬勃发展的趋势,目前正处于工业化和城镇化的社会快速转型期.与此同时,城市建设持续升温、城市规模不断扩大,大量人口向城市聚集,机动车数量不断攀升,给居住和出行带来与日俱增的压力.对此,倡导地下空间资源的开发、利用,在改变城市布局、改善交通压力和减轻环境污染等方面起着不可或缺的重要作用.以上海为例,2010年轨道交通总里程已超过420 km,居世界第一.包括地铁和越江隧道在内的工程建设离不开盾构法施工.[1]这种施工法避免明挖,减少弃土处理,不仅有利于城市环境保护,而且节省工程投资,成为城市隧道工程的一种主要施工方法.由于地下工程地质环境的隐蔽性与复杂多变性、施工过程中灾害事故的突发性以及对环境影响的控制难度,在进行盾构地下施工时,建设质量、安全性的控制和管理的难度比地上工程高得多,容易引发不同程度的地层变形,且地层变形与盾构设备性能及盾构施工工艺等诸多因素直接相关.如何预测和避免隧道施工可能遇到的问题并提出解决方案,具有重大的经济价值和重要的指导意义.当前,数值仿真CAE技术正被广泛应用于科学研究、工程与生产领域,以解决各种复杂问题.在隧道施工仿真方面,专业计算机软、硬件性能持续提升,也引领着CAE技术在应用深度和广度上的不断突破,越来越多地用于解决复杂的大规模工程实际问题.[2-5]本文基于曙光5000A(“魔方”超级计算机),首先描述泥水平衡盾构施工的特点,数值模拟的基本思路、方法以及为提高计算效率采用的分布式并行算法;然后以上海和南京的超大直径越江盾构隧道作为施工仿真的应用对象,介绍在高性能计算平台上建立的大规模精细仿真模型和计算结果以及对工程实际的指导作用.1 原理与方法1.1 泥水盾构施工特点在长江中下游地区建设越江隧道,开挖难度较大,问题突出反映在水压高、埋深浅、地层透水和其他地质水文条件等风险上.越江隧道施工一般选用泥水盾构机穿越江底覆土层,泥水盾构施工示意见图1.它通过加压泥水来稳定开挖面,其刀盘后有个密封隔板,与开挖面之间形成泥水室,里面充满经过处理后的外来有压泥浆;开挖土料与泥浆的混合物由泥浆泵输送到洞外分离厂,经分离后泥浆可以重复使用.这种盾构机适用于隧道面可被泥水加压所支撑的土质,能有效应对各种复杂地层和控制地表沉降.注:1—切削面; 2—泥水/土体;3—空气; 4—推进千斤顶; 5—管片; 6—盾尾密封; 7—泥水输入; 8—泥水/土体输出; 9—注浆.1.2 精细施工仿真策略隧道结构及岩土介质的高度非线性决定地下工程开挖问题亦具有非线性的路径相关性,即随着盾构机的不断推进或变化,结构的形状也不断发生变化,作用在结构上的外载荷也随之改变.盾构隧道的推进本质上仍是个三维问题.在施工仿真策略的制定上,施工过程细节考虑得越多,越有利于准确反映隧道施工过程中围岩和结构的变形与受力状态,从而更准确地预测地表的移动和变形.本文的精细施工仿真策略主要包括以下要点.(1)仿真策略在整体上充分体现盾构实际施工推进过程的三维空间特征和时序特性.盾构机三维掘进过程模拟示意见图2,随着盾构机的逐步推进,力学模拟对象也逐步体现出土体开挖、盾构推进、衬砌安装和壁后注浆等主要施工步骤,拟实表现环环推进的施工效果.在细节上还要模拟地应力场、盾构超挖、泥室压力、注浆硬化和拖车前行等多个施工 细节.图 2 盾构机三维掘进过程模拟示意Fig.2 Simulation on 3D tunneling process ofshield machine盾构机掘进过程模拟细节描述见图3.盾构机与土体接触模型采用无厚度接触单元,单元法向与切向接触均采用罚函数方式描述.除土体采用Drucker-Prager弹塑性本构模型外,其他施工参与对象可采用不同的弹性本构模型进行模拟.(a)(b)(c)(d)(e)图 3 掘进过程模拟细节描述Fig.3 Detailed illustration of tunneling process simulation(2)对于图2和3中诸多仿真细节及其技术实现手段,可从以下方面展开描述:①地质模型中的地应力场可单独通过由重力场计算得到的单元初应力文件进行转化施加.②土体开挖、盾构前行和衬砌施加等可通过单元刚度迁移法实现.③盾构机机头直径大于机尾直径,因此盾构机机身普遍具有一定坡度.盾构超挖及机身坡度通过施加径向位移1.3 并行仿真求解采用ANSYS进行盾构施工仿真的模拟,其自带的APDL能让用户灵活、快捷地使用各项软件功能,模拟盾构施工的力学行为.本文建立的大规模仿真模型可模拟数百米长的盾构施工复杂过程,计算模型自由度达百万数量级以上.使用并行计算将大大减少计算时间.一般可选用共享内存式(Shared Multi-Processing,SMP)或分布内存式(Distributed Memory Parallel,DMP)的并行方式.2种并行模式及体系结构示意见图4.(a)SMP(b)DMP图 4 2种并行模式及体系结构示意Fig.4 Illustration of two parallel modes and architectures 在ANSYS中,具有代表性的SMP求解器是稀疏矩阵求解器SPARSE,具有代表性的DMP求解器是分布式预条件求解器DPCG.SPARSE使用以消元法为基础的直接求解法,计算稳健性最好,可支持所有软件功能,适合多载荷步求解,但并行扩展性能有限;DPCG适合更大的模型,能减少I/O开销,并行扩展性更好,但求解稳定性难以保证,软件功能并行有限制.除此之外,ANSYS还有其他一些求解器,如AMG和DSPARSE等.实际计算时可结合计算平台特点,通过对比不同求解算法得到的加速并行效果,选用最适合的并行仿真策略.2 应用实例2.1 上海长江隧道盾构施工仿真上海长江隧道濒临东海长江口,盾构直径达15.3 m,复杂的地质条件和工程环境给隧道盾构推进施工带来不少难题.借助高性能计算平台进行施工仿真,可建立规模更大、更细致的三维仿真模型,充分体现实际隧道轴线曲折起伏特性以及土层分布的非均匀性.盾构隧道三维施工仿真模型见图5.针对某施工标段建立的计算模型,利用HyperMesh创建的六面体网格能从构形和网格质量上提高计算精度.模型三维尺寸为250 m×150 m×80 m,能模拟构建多达125环衬砌的施工步骤,单元和节点数目都超过30万.图 5 盾构隧道三维施工仿真模型Fig.5 3D shield tunneling simulation model利用该计算模型可进行单线或双线盾构施工的模拟,考察对象包括沉降槽、地表沉降和衬砌变形等.图6描述隧道上方地表沉降曲线,图中横轴0刻度表示开挖面当前所在位置.图 6 隧道上方地表沉降曲线Fig.6 Settlement curve of ground surface above thetunnel此外,还可考察不同施工参数对施工质量的影响,以便优选施工工序.图7为在不同开挖面泥水压力作用下开挖面前地表最大沉降槽竖向位移对比,计算结果给出明确的影响区域及程度.图 7 地表沉降槽竖向位移随开挖面泥水压力变化曲线Fig.7 Vertical dispacement curves of ground surface settlement trough due to slurry pressure change2.2 南京长江盾构隧道施工仿真已通车的南京长江隧道在设计建设开始时也遇到诸多难点,隧道开挖直径近15 m,工程地下穿越段地质结构复杂、建设条件差,也没有可借鉴的成功经验.用本文描述的数值模拟方法对封门拆除、进出洞、穿越大堤和复合土层等多个关键施工区域的施工方案进行模拟和优化,并对工程中可能出现的各种风险进行系统分析,为提高防范能力和科学决策提供依据.[6-7]在结果评判上,除对地表沉降和衬砌变形进行预测外,还可掌握盾构机姿态的变化.以盾构机离开始发井进洞计算分析为例,图8中盾构机首尾竖向位移差表述盾尾与盾首的垂直偏差.当按照设计方案实施推进,盾构机位于满堂加固区时,盾构机前后位移差较小,最大值在9 mm左右,在此区域盾构机“磕头”的风险尚可控制;当盾构机开始进入顶篷加固区时,盾构机前后位移差瞬时增加到最大,达 12.8 mm; 此后,随着盾构机逐渐进入该区域,数值趋于减小和稳定;再度进入原状土区时,盾构机姿态变化相对比较平稳.由于有针对性地采取有效措施,可提前消除盾构机推进时可能出现的“头重脚轻”的隐患.图 8 推进过程中盾构机首尾竖向位移差Fig.8 Vertical displacement difference between headand tail of shield machine during tunneling3 高性能计算平台上的并行求解盾构隧道施工的仿真,曾在“曙光4000A”超级计算机上完成大量计算工况.以该机单计算节点为例,包括4个CPU,可最大共用8 GB 内存.曾经完成的并行计算策略比较[5,8]和后续的改进完善工作都表明:对于这样一个复杂模型,构建一环衬砌所需单载荷步计算,SPARSE 求解器最多需要将近3 h,但是DPCG等分布式迭代求解器可缩短到2 h以内,如果总计开挖100环,就可节省约4 d时间.但分布式求解器计算稳定性值得关注,在长时间求解时会偶发如MPI异常等原因引起的计算中断,带来重复性计算消耗.总之,由于计算量大,若无高性能计算平台的支撑,很难实现多计算工况和施工参数优化.计算机软、硬件的发展给仿真求解带来新的思路,ANSYS的前、后处理模块也逐渐支持并行处理.对于目前上海超级计算中心使用的“魔方”超级计算机来说,单节点内可使用8 CPU共32核,最大可使用内存128 GB,完全能够满足超大规模盾构施工仿真计算模型选用SPARSE in-core求解模式时所需的高内存需求.此时基本不需要磁盘的输入与输出,能大幅提高求解速度,在保证计算稳定性的同时,取得与以往相比提升不少的并行计算效率.4 结论以目前在各地兴起的盾构隧道建设为研究对象,结合近年来的课题和项目经验,详细阐述在高性能计算平台基础上如何创建复杂的大规模泥水盾构施工精细仿真计算模型.该仿真方法已在沪、宁2条盾构越江隧道的设计建设中得到很好的应用.最后结合不同发展阶段的HPC计算平台,指出如何在兼顾计算稳定性和并行求解效率时需注意的要点.实践表明:虽然有一些实现难度,但利用全三维大规模计算模型模拟复杂地层中盾构的长距离推进施工过程,能充分弥补二维计算分析的不足,并得到更为精确和丰富的关于施工质量与沉降控制的评价.参考文献:[1]周文波. 盾构法隧道施工技术及应用[M]. 北京: 中国建筑出版社, 2004: 1-3.[2]张海波, 殷宗泽, 朱俊高. 盾构法隧道施工的精细模拟[J]. 岩土力学, 2004, 25(S2): 280-284.。