分布式共享内存

合集下载

并行程序实验报告

并行程序实验报告

并行程序实验报告( 一).并行程序的简介。

MPI(Message Passing Interface)是目前最重要的一种并行编程工具和环境,几乎所有重要的并行计算机厂商都提供对它的支持,MPI将功能、高效和移植性三个重要而又有一定矛盾的方面很好地融为一体,这是MPI能够取得成功的重要原因。

SIMD/MIMD并行计算机:指令和数据是计算机解决问题所涉及到的两个基本方面,即让计算机"执行什么"样的操作和对"什么对象"执行相应的操作,虽然现在计算机有了很大的发展,但他们仍然有重要的地位和作用,这也是为什么指令数据的划分方式至今仍在使用的重要原因。

不管是同时执行多条指令,还是同时处理多个数据,具有这样功能的计算机都可以称为并行计算机。

根据一个并行计算机能够同时执行的指令与处理数据的多少,可以把并行计算机分为SIMD (Single-Instruction Multiple-Data)单指令多数据并行计算机和MIMD(Multiple-Instruction Multiple-Data)多指令多数据并行计算机。

举例说明SIMD计算机的功能SIMD计算机同时用相同的指令对不同的数据进行操作,比如对于数组赋值运算A=A+1在SIMD并行机上可以用加法指令同时对数组A的所有元素实现加1。

即数组(或向量)运算特别适合在SIMD并行计算机上执行,SIMD并行机可以对这种运算形式进行直接地支持,高效地实现。

举例说明MIMD计算机的功能MIMD计算机同时有多条指令对不同的数据进行操作,比如对于算术表达式A=B+C+D-E+F*G可以转换为A=(B+C)+(D-E)+(F*G)加法(B+C),减法(D-E),乘法(F*G)如果有相应的直接执行部件,则这三个不同的计算可以同时进行。

SPMD/MPMD并行计算机SIMD和MIMD这种表达方法虽然至今还在广泛使用,但是,随着新的并行计算机组织方式的产生,比照上面的划分方法,人们按同时执行的程序和数据的不同,又提出了SPMD(Single-Program Multuple-Data)单程序多数据并行计算机和MPMD(Multiple-Program Multiple-Data)多程序多数据并行计算机的概念。

并行程序设计导论(精品)

并行程序设计导论(精品)
云计算与分布式系统
如服务器集群、负载均衡、分布式数据库等。
并行计算体系结构
共享内存体系结构
多个处理器共享同一物理内存,通过锁或原子操作实现内存 访问同步。
分布式内存体系结构
每个处理器拥有独立的局部内存,处理器之间通过消息传递 进行数据交换。
混合体系结构
结合共享内存和分布式内存的特点,通常在分布式内存系统 中引入共享内存的概念,以提高数据访问效率。
力。
GPU架构
GPU采用众核架构,拥有成千上 万个核心,每个核心都能独立处 理任务,实现高度并行化计算。
GPU内存模型
GPU内存分为全局内存、共享内 存、纹理内存等,不同类型的内 存具有不同的访问速度和用途。
GPU编程模型介绍
01
CUDA编程模型
02
OpenCL编程模型
CUDA(Compute Unified Device Architecture)是NVIDIA推出的并行 计算平台和编程模型,允许开发者使用 C/C语言编写GPU程序。
集群与网格计算
利用高速网络将一组计算机连接起来,共同解决大型计算问 题。集群中的计算机可以是同构或异构的,网格计算则强调 资源的广泛共享和协同工作。
02
并行程序设计基础
并行算法设计思想
分治策略
将大问题分解为多个小问题,分 别求解,最后将结果合并。
平衡负载
将任务均匀分配到各个处理单元, 避免某些处理单元过载。
并行编程模型与语 言
为了降低并行编程的难度,提高 开发效率,未来将会出现更多高 级、易用的并行编程模型和语言。 这些模型和语言将隐藏底层硬件 细节,使程序员能够更专注于问 题本身。
未来研究方向与挑战
并行程序的性能 分析与优化

超级计算技术中的多任务协同与协作方法

超级计算技术中的多任务协同与协作方法

超级计算技术中的多任务协同与协作方法超级计算技术作为一种强大的计算能力的工具,被广泛应用于各个领域,包括科学研究、工程设计和金融等。

随着计算任务的日益复杂和庞大,多任务协同与协作成为了提高超级计算效率和性能的关键。

多任务协同和协作是指在超级计算环境中,同时运行多个计算任务,各个任务可以共享资源、共同进展,从而提高整个系统的计算效率和性能。

为了实现多任务协同与协作,需要采用一系列的方法和技术。

首先,任务调度算法是多任务协同和协作的基础。

在超级计算系统中,有大量的计算任务需要同时执行,这些任务的特点各不相同,包括优先级、资源需求等。

因此,任务调度算法需要根据任务的特点和资源的限制,合理分配计算资源,使得各个任务能够按照预期顺利完成。

常用的任务调度算法包括最短作业优先、最高优先级优先等。

其次,任务间的通信机制是多任务协同的关键。

在超级计算环境中,不同的任务可能需要进行数据交流和共享,通过相互协作来完成更复杂的计算任务。

通信机制需要提供高效的数据传输和同步机制,保证各个任务之间的互动顺利进行。

常见的通信机制包括消息传递接口(MPI)和分布式共享内存(DSM)等。

此外,资源管理和调度非常重要。

超级计算系统中的资源包括计算节点、存储空间、网络带宽等,这些资源的合理分配和管理对于多任务协同和协作具有重要意义。

资源管理和调度需要考虑任务的需求、系统的负载和性能等因素,通过动态调整资源的分配来优化计算任务的执行。

最后,容错机制是保障多任务协同和协作稳定进行的重要手段。

超级计算系统中,由于任务的复杂性和计算量的庞大,经常会出现错误和故障。

为了避免整个系统的崩溃,需要引入容错机制,及时发现和处理错误,保证任务的正常执行。

容错机制包括错误检测和纠正、任务重启和容错恢复等。

在实际应用中,多任务协同与协作方法已经出现了一些成功的案例。

以气象预测为例,气象学家利用超级计算技术对大气动力学方程进行模拟和计算,从而预测未来的天气情况。

反射内存网络内存原理与应用

反射内存网络内存原理与应用

反射内存网络内存原理与应用反射内存网络(Reflective Memory Network,RMN)是一种基于内存的通信模型,它使用共享内存来实现高性能的分布式数据通信。

RMN的内存原理和应用具有广泛的应用场景和潜力。

下面将详细介绍反射内存网络的内存原理和应用。

一、内存原理:反射内存网络的内存原理是基于共享内存的通信模型。

在反射内存网络中,分布式计算节点通过共享内存相互通信和交换数据。

每个节点在计算过程中可以读取和写入共享内存中的数据,从而实现数据共享和通信。

共享内存使得节点间的通信更加高效和快速,大大减少了通信的开销并提高了计算的效率。

1.物理布局:反射内存网络的节点以总线连接的形式组成集群。

每个节点都有自己的内存和处理器,并通过总线共享内存。

2.共享内存:每个节点都可以访问共享内存,读取和写入其中的数据。

共享内存中的数据对所有节点都可见,实现了数据共享和通信。

3.数据一致性:为了保证共享内存中的数据一致性,反射内存网络使用一致性协议来同步数据。

当一个节点修改了共享内存的数据时,它必须通知其他节点进行一致性更新。

4.内存保护:为了保护共享内存中的数据,反射内存网络使用访问控制和权限管理。

只有经过授权的节点才能读取和修改共享内存中的数据,防止数据泄露和非法操作。

二、应用:1.分布式计算:反射内存网络可以实现分布式计算任务的高效通信和数据交换。

各个计算节点可以通过共享内存读取和写入数据,减少了数据传输的开销,加速了计算过程。

2.高性能计算:反射内存网络能够提供高性能的通信和数据传输能力。

通过共享内存的方式,节点之间可以直接读取和写入数据,避免了数据的复制和传输,提高了计算效率和吞吐量。

3.并行处理:反射内存网络可以实现并行处理任务的协作和通信。

不同节点之间可以通过共享内存传递中间结果,实现任务的并行执行和协同计算。

4.数据共享:反射内存网络可以提供数据共享和共享内存的能力。

不同节点可以读取和写入共享内存中的数据,实现数据的共享和共同使用,减少了数据复制和传输的开销。

并行处理和分布式计算

并行处理和分布式计算

并行处理和分布式计算随着大数据时代的到来,对于计算能力的需求也越来越大。

在传统的串行计算中,单个计算任务需要按照顺序一个一个地执行,导致计算效率较低。

为了提高计算效率,人们开始研究并行处理和分布式计算技术。

并行处理是指将一个大的计算任务分解为多个子任务,同时在多个处理器上并行执行,以提高计算速度。

与串行计算相比,并行处理可以充分利用多个处理器的计算能力,同时处理多个任务,从而加快计算速度。

并行处理可以在多个处理器之间共享数据,通过消息传递或共享内存的方式进行通信,以实现任务之间的协作。

分布式计算是指将一个大的计算任务分解为多个子任务,分配到多个计算节点上分别执行,并通过网络进行通信和协调,最后将计算结果进行汇总。

分布式计算可以将计算任务分配给多个计算节点,充分利用集群中的计算资源,以提高计算效率。

分布式计算可以提供高可用性和可扩展性,通过增加计算节点来提高计算能力。

并行处理和分布式计算在很多领域都有广泛的应用。

在科学计算领域,如天气预报、气候模拟等,需要处理大量的数据和复杂的计算模型,通过并行处理和分布式计算可以加快计算速度,提高预测和模拟的准确性。

在互联网领域,如搜索引擎、广告推荐等,需要处理海量的用户数据和复杂的算法,通过并行处理和分布式计算可以提高系统的响应速度和用户体验。

在人工智能领域,如图像识别、自然语言处理等,需要进行复杂的计算和模型训练,通过并行处理和分布式计算可以提高算法的训练速度和准确性。

并行处理和分布式计算的实现方式有多种。

在硬件上,可以通过使用多个处理器、多核处理器、多台计算机或集群来实现并行处理和分布式计算。

在软件上,可以使用并行编程模型和分布式计算框架来实现并行处理和分布式计算。

常用的并行编程模型有共享内存模型和消息传递模型,常用的分布式计算框架有Hadoop、Spark等。

并行处理和分布式计算也面临一些挑战和问题。

首先,任务的划分和调度是一个关键问题,如何将一个大的计算任务划分为多个子任务,并合理地分配给处理器或计算节点进行执行。

学习超级计算技术的七大常见问题解答

学习超级计算技术的七大常见问题解答

学习超级计算技术的七大常见问题解答超级计算技术作为一种高性能计算技术,已经在各个领域中得到了广泛的应用。

然而,由于其复杂性和专业性,对于初学者来说可能会面临一些困惑和疑问。

本文将解答学习超级计算技术中的七个常见问题,希望能帮助读者更好地理解和应用这一技术。

问题一:什么是超级计算技术?它有何特点?超级计算技术是一种使用高性能计算机和并行处理技术解决复杂问题的计算方法。

其特点主要包括高性能、大规模并行、大数据量处理和复杂计算任务的解决能力。

通过充分利用多个处理器或计算节点,超级计算技术能够实现高效的任务分解和并行计算,从而大幅提升计算速度和处理能力。

问题二:超级计算技术有哪些应用领域?超级计算技术广泛应用于科学、工程、医学、气象、金融等领域。

例如,在气象学中,超级计算机可以模拟复杂气象系统来预测天气变化;在工程领域,它可以进行大规模的物理模拟和结构优化;在医学领域,超级计算机可以帮助加速基因组学和蛋白质结构预测等研究。

问题三:如何选择适合自己的超级计算机系统?选择适合自己的超级计算机系统需要考虑多个因素,包括预算、应用需求和性能要求等。

首先要明确自己需要解决的问题的计算要求,并评估所需的处理能力和存储容量。

然后根据预算和实际应用情况,选择相应的硬件平台和软件工具,以满足性能和成本的要求。

问题四:超级计算技术有哪些常用的并行计算模型?常用的并行计算模型包括共享内存模型(SMP)、分布式内存模型(MPP)和混合内存模型(HMP)等。

共享内存模型是多个处理器共享同一块内存的模型,通常用于对称多处理器系统。

分布式内存模型是通过网络连接多个计算节点的模型,每个计算节点有自己的内存,用于处理大规模问题。

混合内存模型则是将共享内存和分布式内存模型结合起来,兼具两者的优点。

问题五:如何编写适合超级计算的并行程序?编写适合超级计算的并行程序需要遵循一些基本原则。

首先,需要将任务合理分解,使各个计算节点能够并行处理独立的子任务。

计算机体系结构并行计算基础知识

计算机体系结构并行计算基础知识

计算机体系结构并行计算基础知识计算机体系结构是计算机硬件和软件的结构和组织方式。

而并行计算指的是在计算机中同时执行多个任务或指令的能力。

在本文中,我们将探讨计算机体系结构中的并行计算的基础知识。

一、并行计算的概念和原理并行计算是指同时使用多个处理器或计算单元来执行任务或指令。

与串行计算相比,它能够加快计算速度,提高系统的整体性能。

并行计算的原理是将一个大任务或指令分解成多个小任务或指令,并利用多个处理器或计算单元同时执行这些小任务或指令。

这样可以充分利用计算资源,提高系统的运行效率。

二、并行计算的分类并行计算可以按照不同的标准进行分类。

下面是几种常见的分类方式:1.按照并行计算的粒度,可以分为指令级并行、线程级并行、过程级并行、任务级并行等。

指令级并行是指同时执行多条指令,线程级并行是指同时执行多个线程,过程级并行是指同时执行多个独立的过程,任务级并行是指将一个大任务分解成多个小任务,并同时执行这些小任务。

2.按照并行计算的结构,可以分为共享内存并行计算和分布式并行计算。

共享内存并行计算是指多个处理器共享同一块内存,分布式并行计算是指每个处理器都有自己的内存,通过网络进行通信和协调。

3.按照并行计算的拓扑结构,可以分为串行结构、对称多处理结构、集群结构等。

串行结构是指只有一个处理器的结构,对称多处理结构是指多个处理器之间没有主从关系,集群结构是指多个处理器通过网络连接起来,具有主从关系。

三、并行计算的优势和应用并行计算具有以下优势:1.提高计算速度:通过同时执行多个任务或指令,可以加快计算速度,提高系统的整体性能。

2.提高系统的可靠性:当一个处理器出现故障时,其他处理器可以继续工作,保证系统的正常运行。

3.节省成本:通过并行计算,可以充分利用计算资源,减少计算机的数量和成本。

并行计算的应用非常广泛,包括科学计算、人工智能、图像处理、数据挖掘等领域。

在科学计算中,通过并行计算可以加快模拟和分析的速度;在人工智能中,通过并行计算可以提高机器学习和深度学习的效率;在图像处理和数据挖掘中,通过并行计算可以快速处理大量的数据。

C++网络编程学习笔记(ACE)

C++网络编程学习笔记(ACE)

前言面向对象中间件体系结构a)主机基础设施中间件:封装socket,线程等不同主机的实现,形成统一的接口。

如java,ACEb)分布式中间件:连接管理,内存管理,整编,解编,端点和请求的多路分离,同步,多线程等,使程序员象开发独立应用程序一样开发分布式应用程序。

分布式中间件的核心是ORB(Object Requests Broker对象请求代理),如:COM+,JAVA RMI,CORBA 1通信设计空间1.1面向连接协议需要做出如下设计:●数据成帧策略●连接多路复用策略1.链接多路复用:多个线程复用同一个TCP链接2.非多路复用:多个进程使用多个链接。

系统开销大1.2同步和异步消息交换1.3消息传递与共享内存消息传递:消息中间件共享内存:●本地共享内存:shmget(),shmat(). 内存映射文件●分布式共享内存:虚拟内存,是本地共享内存的一种抽象。

2SOCKET API 概述3ACE Socket wrapper façade3.1ACE_Addr运算符== , !=addr_type, addr_size3.2ACE_INET_Add3.3ACE_IPC_SAP为其他ACE对象提供了基本的“I/O”句柄操作能力enable()disable()get_handle()set_handle()3.4ACE_SOCK继承自ACE_IPC_SAP,get _local_addr()set_local_addr()open()close()get_remote_addr()set_option()get_option()3.5ACE_SOCK_Connecter主动连接模式,是一个工厂类。

发起一个连接,并在连接成功后初始化一个ACE_SOCK_Stream对象。

可以通过“阻塞”“非阻塞”“定时”方式发起。

以下是非阻塞模式以下是非阻塞模式3.6ACE_SOCK_Stream数据传输角色的实现。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

第7章 分布式共享内存 在本章中,我们研究实现分布式共享内存(distributed shared memory简称DSM)。 7.1 引论

传统上,分布式计算是基于消息传递模型,在这种模型下进程们经由以消息形式交换数据来彼此互相交互和共享数据。Hoare的通讯顺序进程(communicating sequential processes),客户-服务器模型和远程过程调用都是这种模型的例子。 分布式共享内存(Distributed shared memory简称DSM)系统是分布式操作系统的一个资源管理成分,它实现在没有物理地共享内存的分布式系统中的共享内存模型。见图7.1。

图7.1分布式系统中的共享内存模型 这个共享内存模型提供一个虚拟地址空间,使得被在一个分布式系统中所有结点(计算机)之间共享。

7.2 体系结构和动力

具有分布式共享内存,程序访问在共享地址空间中的数据正如同访问在传统的虚存中的数据一样。在支持分布式共享内存的系统中,数据既在辅存和主存之间也在不同结点的主存之间移动。 每个结点可以拥有存贮在共享地址空间中的数据,并且当数据从一个结点移到另一个结点时,拥有关系可以改变。当一个进程访问在共享地址空间中的数据时,一个映照管理者(mapping manager) 映照共享内存地址到物理存储,这个物理存储可以是本地或远程的。 映照管理者是一个或者实现在操作系统内核中或者作为一个运行时库例程的软件层。 为了减少由于通讯误而带来的延迟,当共享内存地址映照到在在一个远程结点上的一个物理内存位置时,分布式共享内存可以移动在共享内存地址中的数据从一个远程结点到正在访问数据的结点。在这样情况下,分布式共享内存利用底层通讯系统的通讯服务。 7.2.1 分布式共享内存的优点 在消息传递模型中,程序通过明显的消息传递使共享数据可供使用。换句话说,程序员需要意识到进程之间数据移动。程序员不得不明显地使用通讯原语(例如SEND和RECEIVE),放一个重要的负担在它们身上。 相反,分布式共享内存系统隐藏这个明显的数据移动并且提供一个较简单的程序员已经精通的共享数据抽象。因此,利用分布式共享内存比通过明显的消息传递更容易地设计和编写并行算法。 在消息传递模型中,数据在两个不同的地址空间之间移动。这使得它难以在两个进程之间传递复杂的数据结构。而且传递由“引用”的数据和传递包含指针的数据结构一般是困难的和贵的。相反,分布式共享内存系统允许传递由“引用”的复杂的数据结构,于是简化了对分布式应用的算法的开发。 仅移动规定的所引用的数据片来代替由移动整块或包含所引用的引用场点的数据页,分布式共享内存利用程序所显示的引用局部性,因此削减了在网络上的通信开销。 分布式共享内存系统比紧偶合多机系统更便宜。这是因为分布式共享内存系统可以利用货架上的(off-the-shelf)硬件建立不需要复杂的接口把共享内存连接到处理机。 在一个分布式共享内存系统所有结点中可供使用物理内存组合在一起是巨大的。这个大的内存可以用于有效地运行要求大内存的程序而不用招致由于在传统的分布系统中对换引起的磁盘延迟。这个事实也由处理机速度相对于内存速度预料的增加和非常高速网络出现所支持。 在具有单个共享内存的紧偶合多机系统中主存经由一个公共总线访问,这限制多机系统为几十个处理机。分布式共享内存系统没有这个缺点,并且可以容易地向上扩充。 为共享内存多处理机写的程序原则上可以不加改变地运行在分布式共享内存系统。至少这样的程序可以容易地移到分布式共享内存系统中。 本质上,分布式共享内存系统努力克服共享内存机器体系结构的限制并且减少在分布系统中写并行程序。所需的努力。

7.3 实现分布式共享内存的算法 实现分布式共享内存的中心课题是:  如何追踪远程数据的位置;  当访问远程数据时,.如何克服.通信延迟和在分布系统中通信协议的执行相联的开销;  为了改善系统性能,.如何使共享数据在几个结点上并发地可供访问。 现在我们描述实现分布式共享内存的四个基本算法。  中央服务器(Central-Server)算法  迁移算法  读复制(Read-Replicatin)算法  完全复制算法

7.3.1 中央服务器(Central-Server)算法

在中央服务器(Central-Server)算法中,一个中央服务器维护所有的共享数据。它服务从其它结点或者客户来的读请求,返回数据项给它们(见图7.2)。在客户写请求时,它更新数据并返回表示收到的消息。 在表示收到的消息失效情况一个超时(timeout)可以被采用来重发请求。重复的写请求可以由写请求所伴随的顺序号检测。在几次重新传输而又无响应后一个失败的条件被返回到企图访问共享数据的应用。 虽然中央服务器算法其实现是简单的,但中央服务器可能变成一个瓶颈。为了克服这个问题,共享数据可以分布在几个服务器上。在这种情况下,客户必须能够对每次数据访问定位适当的服务器。 多点广播式的数据访问请求是不希望的,因为与中央服务器方案相比,它并不减少服务器的负载。分布数据的一种较好的方法是按地址划分共享数据并且利用一个映照函数定位适当的服务器。

图7.2中央服务器算法 7.3.2 迁移算法

在中央服务器算法中,每个数据访问请求被发送到数据的位置,与之相比,在迁移算法中的数据被转移到数据访问请求的地点,允许随后的对该数据的访问被本地地执行(见图7.3)。 迁移算法每次仅允许一个结点访问一个共享数据。 在中央服务器算法中,每个数据访问请求被发送到数据的位置,与之相比,在迁移算法中的数据被转移到数据访问请求的地点,允许随后的对该数据的访问被本地地执行。

图7.3迁移算法 典型地,包含数据项的整个页或块迁移以代替单个请求项。这个算法利用由程序所展示的引用的局部性把迁移的费用分摊到多个访问迁移数据上。但是这种途径对抖动(thrashing)敏感,其中页频繁地在结点间迁移,而仅服务少数请求。 为了减少抖动,Mirage系统使用一个可调的参量决定一个结点可以拥有一个共享数据项的期间。这允许在页被迁移到另一结点之前一个结点对该页作若干次访问。Munin系统力求采用适合不同的数据访问模式的协议来减少数据移动。 迁移算法提供了一个机会把分布式共享内存与运行在单个结点上操作系统所提供的虚存集成在一起。当分布式共享内存所用的页大小是虚存页大小的倍数时,一个本地掌握的共享内存页可以被映照到一个应用的虚地址空间并且利用正常的机器指令访问。 在一个内存访问失效时,如果内存地址映照到一个远程页,在映照页到进程的地址空间之前,一个页失效处理程序将迁移该页。在迁移一页时,该页从所有在以前结点被映照到的地址空间移开。注意,几个进程可以共享在一个结点上的一页。 为了定位一个数据块,迁移算法可以利用一个服务器追踪页的位置或者通过在结点上所维持的提示。这些提示指向搜寻当前占有该页的结点。另外,一个询问可以广播来定位一页。

7.3.3 读复制(Read-Replicatin)算法

在前面途径中仅仅在一个结点上的进程可以在如何时刻访问一个共享数据。读复制(Read-Replicatin)算法扩充了迁移算法,即复制数据块并且允许多个结点具有读访问或一个结点具有读写访问(多个读者-一个作者协议)(见图7.4)。

图7.4读复制 由允许多个结点并发地访问数据,读复制可以改善系统性能。但是,写操作是昂贵的,因为一个共享块在各种结点上的所有副本将或者不得不是无效的,或者用当前值来更新以维护共享数据块的一致性。 在读复制算法中分布式共享内存必须追踪所有数据块副本的位置。在IVY系统中,一个数据块的拥有者结点追踪具有该数据块的一个副本的所有结点。在PLUS系统中,一个分布式链接列表用来追踪具有该数据块的一个副本的所有结点。 然而,当读对写的比例是大的时候,读复制有减少读操作平均费用的潜力。在节描述在IVY系统中实现的许多读复制算法。

7.3.4 完全复制算法

完全复制算法是读复制算法的一种扩充(见图7.5)。读复制算法它允许多个结点具有对共享数据块的读和写两种访问(多个读者-多个作者协议)。由于许多结点可以并发地写共享数据,对共享数据的访问必须被控制以维持它的一致性。 维持一致性的一个简单方法是利用一个无间隙的顺序器(gap-free sequencer)。在这种方案下,所有希望修改共享数据的结点将发送修改给一个顺序器。这个顺序器将赋予一个顺序号并且多点广播这个修改及顺序号到所有具有该共享数据项副本的结点。 每个结点以顺序号次序处理修改请求。在一个结点上一个修改请求的顺序号和期待的顺序号之间的间隙指示一个或多个修改已被遗漏。在这种情况下结点将被请求重新传送已经遗漏的修改。这蕴涵在某个结点保留修改的日记。在第5节将讨论若干其它维护共享数据的一致性的协议。

图7.5完全复制算法 7.4 存储一致性(Memory coherence)

为了改善性能分布式共享内存系统依赖复制共享数据项和允许在许多结点上并发访问。但是,如果并发访问不仔细地加以控制,内存访问可能以不同于程序员所期望的次序被执行。非正式讲,一个内存是一致的,如果由读操作返回的值总归是程序员所期望的值。 例如,对一个程序员期待一个读操作返回一个最近写操作所存贮的值是相当自然的。 因此,为了维护共享数据项的一致性,一个控制或同步访问的机制是必要的。同样为了写正确的程序,程序员需要理解如何进行对共享内存的并发更新。允许的内存访问次序集合构成了存储一致性模型。字一致性用于说明一种特殊类型的一致性。 存储一致性最直观语义是严格一致性(strict consistency),其定义如下:一个读返回最近写的值。严格一致性要求具有决定最近写的能力,依次它蕴涵请求的全序。由于比一个程序可能实际需要更多的数据移动和同步要求,请求的全序导致非有效性(请参考[4])。 为了解决这个问题,某些分布式共享内存系统企图由提供不严格的一致性语义来改善性能。下列是几种内存一致性形式:  顺序的一致性(Sequential consistency)  一般一致性(General Consistency)  处理机一致性(Processor consistency)  弱一致性(Weak consistency)  释放一致性(Release consistency)

相关文档
最新文档