并行计算方法

合集下载

一种CRC并行计算原理及实现方法

一种CRC并行计算原理及实现方法

一种CRC并行计算原理及实现方法一种常用的CRC并行计算原理及实现方法是通过使用查表法(Table-Driven)。

CRC(循环冗余校验码)是一种常用的数据校验方法,它通过对数据进行异或运算,生成一个校验值,再将校验值附加到数据中传输,接收方根据接收到的数据和附加的校验值进行计算,如果计算的结果与已知的校验值相同,则数据传输没有错误,否则存在错误。

在CRC并行计算中,常见的被检验的数据流是按位顺序传输的。

为了加速计算过程,可以使用查表法来并行计算CRC。

查表法的基本原理是预先计算不同输入字节(8位)对应的CRC,然后利用这些预先计算的结果来进行CRC计算。

具体步骤如下:1.预先计算CRC表:可以根据CRC算法的多项式生成一张256行的CRC查表。

表中每一行对应一个8位字节,每行包含一个32位的CRC值。

这些预先计算的CRC值是通过不断对每个字节进行异或操作来计算出来的。

2.初始化CRC寄存器:将CRC寄存器初始化为全0。

3.逐字节计算:按照顺序读取待计算的数据流中的每个字节。

4.异或操作:将CRC寄存器中的高8位与当前读取的字节进行异或操作,并且将结果作为索引在CRC表中查找。

得到的结果是一个32位的CRC。

5.更新CRC寄存器:将CRC寄存器的高24位更新为从CRC表中查找到的32位CRC值。

6.继续计算:如果数据流还没有结束,重复步骤3至5,直到处理完所有字节。

7.计算结果:最后得到的CRC寄存器中的值就是校验结果,可以将其附加到数据中进行传输。

通过使用查表法的并行计算,可以加快CRC的计算速度。

因为预先计算CRC表的过程只需要进行一次,在后续的计算中只需要进行查表和异或操作,而不需要再进行CRC算法的计算。

此外,还有一些其他的CRC并行计算方法,如使用移位寄存器进行计算等。

这些方法根据具体的场景和需求选择使用。

总之,CRC并行计算的关键是预先计算CRC表并将结果存储起来,然后根据输入的数据进行查表和异或操作,通过并行计算的方式加速CRC的计算过程。

数学十大创新计算方法

数学十大创新计算方法

数学十大创新计算方法1. 蒙特卡洛方法蒙特卡洛方法是一种基于随机抽样的数值计算方法,被广泛应用于物理、工程、金融等领域。

该方法通过模拟随机过程,求解各种数学问题,如积分、最优化、概率等。

其主要优势在于能够处理复杂非线性问题,且易于并行化计算。

2. 有限元方法有限元方法是一种将连续问题离散化的数值计算方法,主要用于求解偏微分方程。

该方法将求解区域划分为若干个子区域,通过对子区域进行局部近似,建立有限元空间,从而得到全局近似解。

有限元方法在工程、物理、生物等领域具有广泛应用。

3. 谱方法谱方法是一种基于全局基函数的数值计算方法,主要应用于求解线性偏微分方程。

该方法将求解区域映射到谱空间,利用全局基函数展开解,从而获得高精度的数值解。

谱方法在气象、海洋、量子物理等领域具有显著优势。

4. 数值模拟方法数值模拟方法是通过计算机模拟实际问题,求解数学模型的一种方法。

该方法可以模拟各种复杂现象,如流体动力学、电磁场、生物分子动力学等。

数值模拟方法在科学研究、工程设计、医学等领域具有重要应用价值。

5. 机器方法机器方法是一种利用数据驱动的计算方法,通过从数据中得到模型参数,从而解决实际问题。

该方法在图像识别、语音识别、自然语言处理等领域取得了显著成果。

近年来,机器方法在数学计算领域也得到了广泛关注。

6. 优化方法优化方法是求解数学优化问题的一种方法,主要包括线性规划、非线性规划、整数规划等。

优化方法在生产、金融、物流等领域具有广泛应用,可以帮助人们找到最优解或近似最优解。

7. 符号计算方法符号计算方法是一种基于数学符号进行计算的方法,主要用于求解代数、微分等数学问题。

符号计算方法在数学、物理、计算机科学等领域具有重要应用。

8. 随机算法随机算法是一种基于随机过程的计算方法,主要用于求解复杂问题。

随机算法在理论计算机科学、密码学、统计学等领域具有广泛应用。

9. 并行计算方法并行计算方法是一种利用多处理器同时执行多个任务的方法,可以显著提高计算效率。

MATLAB并行计算的实现方法与技巧

MATLAB并行计算的实现方法与技巧

MATLAB并行计算的实现方法与技巧1. 引言MATLAB是一种非常强大的数值计算和科学编程工具,但在处理大规模数据以及复杂计算任务时,单个计算机资源的限制会导致计算效率低下。

为了充分利用计算资源,提高计算速度,我们可以使用并行计算技术。

本文将介绍MATLAB并行计算的实现方法与技巧,帮助读者合理利用多个计算核心,提升计算效率。

2. 并行计算概述并行计算是将一个任务划分为多个子任务,同时在多个计算核心上进行计算,以加快计算速度。

在MATLAB中,我们可以使用Parallel Computing Toolbox来实现并行计算。

其主要方式有两种:任务并行计算和数据并行计算。

3. 任务并行计算任务并行计算是指将一个大任务分解成多个子任务,每个子任务被分配到不同的计算核心上执行。

MATLAB提供了parfor循环来方便开发者实现任务并行计算。

下面是一个简单的示例,展示了如何使用parfor实现任务并行计算:```matlabparfor i = 1:100output(i) = myFunction(input(i));end```上述代码中,myFunction是一个需要计算的函数,input是输入数据,output是输出结果。

通过parfor循环,每个循环迭代都会在不同的计算核心上运行,从而提高计算速度。

需要注意的是,parfor循环中的每个迭代必须是独立的,不依赖于其他迭代的结果。

否则,parfor将无法正确处理结果的依赖关系。

4. 数据并行计算数据并行计算是指将一个大任务中的数据划分成多个部分,每个部分在不同的计算核心上进行计算。

MATLAB提供了spmd语句(single program multiple data),使得数据并行计算更容易实现。

下面是一个简单的示例,展示了如何使用spmd语句实现数据并行计算:```matlabspmddata = labindex:2:100;output = myFunction(data);end```上述代码中,labindex是一个特殊的变量,表示当前计算核心的索引。

MATLAB并行计算工具箱的使用方法

MATLAB并行计算工具箱的使用方法

MATLAB并行计算工具箱的使用方法1. 引言在当今大数据时代,处理海量数据和复杂计算成为了一项重要的任务。

MATLAB并行计算工具箱为用户提供了解决这一挑战的强大工具。

本文将介绍MATLAB并行计算工具箱的使用方法,包括并行计算的基本概念、并行计算模型、代码优化和调试技巧等。

2. 并行计算概述并行计算是一种通过同时执行多个任务来加快计算速度的方法。

在传统计算中,任务按照顺序逐个执行,而在并行计算中,多个任务可以同时进行。

这样可以大大减少计算时间,提高计算效率。

3. 并行计算模型MATLAB并行计算工具箱提供了两种常见的并行计算模型:数据并行和任务并行。

3.1 数据并行数据并行指的是将数据分成多个部分,分别发送给多个计算核心进行并行处理。

这种模型适用于数据量很大,但每个子问题相对较简单的情况。

数据并行可以通过使用parallel Computing Toolbox中的parfor语句实现。

parfor语句类似于for循环,但是可以自动分配任务给不同的计算核心。

3.2 任务并行任务并行指的是将多个任务分配给不同的计算核心并行执行。

这种模型适用于多个独立任务的情况。

任务并行可以通过使用parallel Computing Toolbox中的spmd语句实现。

spmd语句可以将程序分成多个独立的部分,并在不同的计算核心上同时运行。

4. 并行计算的基本操作在使用MATLAB并行计算工具箱时,可以使用以下几个基本操作实现并行计算。

4.1 启动并行计算首先,需要通过在MATLAB命令行窗口输入"parpool"命令来启动并行计算。

这将根据计算机的处理器核心数量自动创建一个并行计算池,供并行计算使用。

使用"parpool"命令可以最大程度地利用计算机的多核处理能力。

4.2 并行计算的语法在使用并行计算时,需要使用一些特殊的语法来表示并行操作。

如前所述,parfor语句用于实现数据并行,spmd语句用于实现任务并行。

udf的并行计算

udf的并行计算

udf的并行计算摘要:一、引言二、UDF并行计算的概念三、UDF并行计算的优势四、UDF并行计算的实现方法五、UDF并行计算的案例分析六、UDF并行计算的发展趋势七、总结正文:一、引言随着大数据时代的到来,数据处理和分析的需求不断增长。

传统的串行计算方式已经无法满足高效处理大量数据的需求。

在这种背景下,UDF(用户自定义函数)并行计算应运而生,成为大数据处理领域的研究热点。

本文将介绍UDF并行计算的相关知识,探讨其优势、实现方法及发展趋势。

二、UDF并行计算的概念UDF并行计算是一种利用并行计算技术,对用户自定义函数(UDF)进行并行处理的方法。

它将原本串行的UDF函数分解成多个独立的子任务,通过多线程或多进程并行执行这些子任务,从而提高整个计算过程的效率。

三、UDF并行计算的优势UDF并行计算具有以下优势:1.提高计算速度:通过并行处理,可以大幅减少计算时间,提高数据处理效率。

2.充分利用硬件资源:多线程或多进程并行执行,可以充分利用计算机的多核处理器,提高硬件资源利用率。

3.扩展性强:UDF并行计算具有良好的扩展性,可以方便地应用于大规模数据处理场景。

四、UDF并行计算的实现方法UDF并行计算的实现方法主要包括以下几种:1.基于MapReduce的UDF并行计算:利用MapReduce框架将UDF函数分解为多个子任务,通过并行执行这些子任务完成计算。

2.基于Spark的UDF并行计算:利用Spark框架将UDF函数分解为多个子任务,通过并行执行这些子任务完成计算。

3.基于多线程或多进程的UDF并行计算:通过创建多个线程或进程,并行执行UDF函数的各个子任务。

五、UDF并行计算的案例分析以下是一个基于MapReduce的UDF并行计算案例:假设有一个求和UDF,需要对一个包含1000个数的列表进行求和。

使用MapReduce框架,可以将这个求和UDF分解为1000个独立的子任务,每个任务负责计算一个数的和。

FDTD网络并行计算及ADI-FDTD方法研究

FDTD网络并行计算及ADI-FDTD方法研究

FDTD网络并行计算及ADI-FDTD方法研究FDTD网络并行计算及ADI-FDTD方法研究引言:随着电磁场仿真领域的快速发展,传统的有限差分时域(FDTD)方法在计算速度和存储资源方面逐渐受到限制。

为了解决这些问题,研究者们开展了FDTD网络并行计算及ADI-FDTD方法研究,旨在提高计算速度和减少存储资源占用。

本文将探讨FDTD网络并行计算的基本原理、算法设计和实现过程,以及ADI-FDTD方法的应用和效果分析。

一、FDTD网络并行计算的基本原理FDTD网络并行计算是基于并行计算技术对FDTD算法进行加速的一种方法。

它通过将电磁场仿真问题划分成多个子域,并使用多个计算节点同时计算各个子域的电磁场分布,从而提高计算效率。

FDTD网络并行计算的基本原理包括任务划分、进程间通信和结果汇总三个方面。

1. 任务划分任务划分是将整个电磁场仿真问题划分成多个子域的过程。

划分的原则是使每个子域尽可能均匀分布计算量,且保持与原始问题的边界条件和物理特性相一致。

2. 进程间通信进程间通信是各个计算节点之间交换信息的过程。

在FDTD网络并行计算中,各个计算节点需要交换与边界相邻的电磁场分布信息,以保持边界条件的准确性。

3. 结果汇总结果汇总是将各个计算节点计算得到的电磁场分布结果进行合并的过程。

通常采用串行方式或并行归约方式,将各个计算节点的结果进行累加得到最终的电磁场分布结果。

二、FDTD网络并行计算的算法设计与实现FDTD网络并行计算的算法设计主要包括数据划分、任务调度和进程间通信等方面。

实现过程中需要权衡计算负载的均衡性和通信开销的减小,以提高整体计算效率。

1. 数据划分数据划分是将整个电磁场分布划分成多个小区域的过程。

通过将区域划分成多个均匀的网格单元,将计算任务分配给各个计算节点来实现并行计算。

一般通过选择适当的数据划分策略来保证计算负载的均衡性。

2. 任务调度任务调度是指将划分好的任务分配给各个计算节点进行计算的过程。

lammps单机并行计算配置方法

lammps单机并行计算配置方法Lamps 单机多核并行计算方法1、修改环境变量编辑.bashrc 文件:cdvi .bashrc按Insert 键,移动光标至fi 下,在文件结尾处(fi 后)增加以下两行:export PATH=/opt/mpich/bin:$PATHexportLD_LIBRARY_PATH=/opt/mpich/lib:/opt/fftw/lib:$LD_LIBRARY_P ATH按Esc,Shift+zz重启机器2、安装fftw获得fftw:wget /doc/e412612373.html,/fftw-2.1.5.tar.gztar xvzf fftw-2.1.5.tar.gzcd fftw directory./configure --prefix=/opt/fftw --enable-floatmakesudo make install3、安装mpich2获得mpich;wget/doc/e412612373.html,/research/proj ects/mpich2/downloads/tarballs/1.4.1p1/mpi ch2-1.4.1p1.tar.gzcd ..(退上去)tar xvzf mpich2-1.4.1p1.tar.gzcd mpich2-1.4.1p1./configure --prefix=/opt/mpichmakesudo make install4、Lammps编译Cd ~tar -xvzf lammps-6Dec12.tar.gz (注:必须有f 才能解压)cd lammps-6Dec12/src/MAKEvi Makefile.linuxcc= 改为mpic++link= 改为mpic++MPI_INC = -I/opt/mpich/include (添加,不删除原有内容)MPI_PATH = -L/opt/mpich/libMPI_LIB = /opt/mpich/lib/libmpich.a (不改动)FFT_INC = -I/opt/fftw/include (添加,不删除原有内容)FFT_PATH = -L/opt/fftw/libFFT_LIB = /opt/fftw/lib/libfftw.a (不改动)cd lammps6Dec2/srcmake yes-mcmake linux在src 文件夹内生成可执行文件:lmp_linux如果要修改Makefile.g++,方法如下vi Makefile.g++cc= 改为g++link= 改为g++MPI_INC = -I/opt/mpich/include (添加,不删除原有内容)MPI_PATH = -L/opt/mpich/libMPI_LIB = /opt/mpich/lib/libmpich.a (不改动)FFT_INC = -I/opt/fftw/include (添加,不删除原有内容)FFT_PATH = -L/opt/fftw/libFFT_LIB = /opt/fftw/lib/libfftw.a (不改动)EscShift+ZZcd lammps6Dec2/srcmake g++运行测试(在src 路径下):cp lmp_linux ../benchcd ../benchmpirun -np 4 ./lmp_linux < in.lj。

在C++中实现并行计算和并行算法

在C++中实现并行计算和并行算法并行计算和并行算法是指通过同时运行多个计算任务来提高计算效率的一种计算方法。

在C++中,可以使用多线程、OpenMP和MPI等工具实现并行计算和并行算法。

1.多线程:C++提供了多线程编程的支持,可以使用std::thread库来创建和管理线程。

多线程可以将一个计算任务划分为多个子任务,在多个线程中同时执行,从而提高计算效率。

下面以一个简单的例子来说明多线程的使用:```cpp#include <iostream>#include <thread>//子线程执行的函数void task(int id) {std::cout << "Thread " << id << " is running" <<std::endl;int main() {const int numThreads = 4;std::thread threads[numThreads];//创建多个线程,并分配不同的子任务for (int i = 0; i < numThreads; ++i) { threads[i] = std::thread(task, i);}//等待所有线程执行完毕for (int i = 0; i < numThreads; ++i) { threads[i].join();}return 0;}运行这段代码,我们可以看到输出结果显示了四个线程同时执行的情况。

2. OpenMP:OpenMP是一种并行编程接口,可以在C++中使用它来实现并行计算。

OpenMP提供了一系列的指令和函数,可以在循环、函数和代码段等级别上实现并行化。

下面是一个使用OpenMP实现的并行循环的例子:```cpp#include <iostream>#include <omp.h>int main() {const int size = 100;int arr[size];//使用OpenMP并行化循环初始化数组#pragma omp parallel forfor (int i = 0; i < size; ++i) { arr[i] = i;}//输出数组的内容for (int i = 0; i < size; ++i) { std::cout << arr[i] << " ";if (i % 10 == 9) {std::cout << std::endl;}}return 0;}```运行结果显示数组中的元素是按照顺序初始化的,这表明循环在多个线程中并行执行。

计算机系统结构的八个重要方法

计算机系统结构的八个重要方法计算机系统结构是指计算机硬件和软件组成的总体结构和组织方式。

它是计算机科学中的一个重要领域,研究如何设计和组织计算机系统,以实现高效、可靠、安全的计算和信息处理。

计算机系统结构的研究方法有很多,下面将介绍八个重要的方法。

一、层次化结构方法层次化结构方法是计算机系统设计中最基本和最重要的方法之一。

它将计算机系统划分为若干层次,每一层次都有特定的功能和接口。

这种层次化的结构设计可以使系统模块化,方便维护和升级,提高系统的可靠性和可扩展性。

二、模块化设计方法模块化设计方法是指将计算机系统的功能划分为若干相对独立的模块,并通过接口进行连接和交互。

模块化设计可以使系统结构清晰,各个模块之间的依赖关系明确,方便并行开发和测试。

同时,模块化设计还可以提高系统的可重用性,方便对系统进行扩展和定制。

三、并行计算方法并行计算方法是指通过将计算任务分解成若干子任务,并行执行,以提高计算速度和效率。

在计算机系统结构中,可以通过设计多核处理器、并行计算架构和分布式系统等方式实现并行计算。

并行计算方法可以充分利用计算资源,提高系统的整体性能。

四、流水线技术流水线技术是一种将计算任务划分为若干阶段,并且每个阶段可以并行执行的方法。

流水线技术可以有效提高计算机系统的吞吐量和响应速度。

在流水线技术中,各个阶段之间需要进行数据传递和控制,因此需要设计合理的接口和协议。

五、缓存技术缓存技术是指在计算机系统中添加一层高速存储器,用于暂时存储经常访问的数据和指令。

通过缓存技术,可以减少对主存的访问次数,提高系统的运行速度。

缓存技术需要设计合理的缓存算法和替换策略,以保证数据的一致性和正确性。

六、虚拟化技术虚拟化技术是指将一台物理计算机划分为多个虚拟计算机,并且每个虚拟计算机可以独立运行不同的操作系统和应用程序。

虚拟化技术可以提高计算机资源的利用率,降低系统的维护和管理成本。

在虚拟化技术中,需要设计虚拟机监控器和虚拟机管理器等软件组件。

并行计算的分类

并行计算的分类随着计算机技术的不断发展,计算能力和算法的复杂程度也得到了大幅提升,但是在某些场景下,单个计算机的计算能力和运行速度已经无法满足需求。

并行计算应运而生,可以利用多个计算机或者处理器同时进行计算任务,进而提高计算速度和效率。

并行计算的分类可以从不同角度进行区分,下面是常见的并行计算分类。

1.按照并行度分类并行度是指在并行计算中,可同时执行的任务数目。

根据并行度的不同,可以将并行计算分为以下几类。

(1)任务并行:任务并行是指将大的计算任务分为多个小的子任务,然后将子任务分配给多个处理器进行同时计算。

这种并行化策略可以极大地提高计算速度和效率。

例如,在图像处理中,可以将一幅图像分成多个子区域,然后交给多个处理器并行计算。

(2)数据并行:数据并行是指将大的数据集分为多份,然后将数据分配给多个处理器进行计算。

例如,在机器学习中,可以将数据集分为多份,然后交给多个处理器进行同时训练。

(3)管道并行:管道并行是指将多个处理器按照流水线方式进行组合,每个处理器负责一道计算工序,然后将结果传递给下一个处理器。

例如,在视频处理中,可以将视频编码器和解码器按照流水线方式进行组合,提高视频处理的效率。

(4)混合并行:混合并行是指以上所述所有并行化方式的混合使用。

2.按照计算资源分类根据计算资源的不同,可以将并行计算分为以下几类。

(1)集中式并行计算:集中式并行计算是指将多个处理器或者计算机集中在一个计算中心进行协同工作,以完成一些大规模计算任务。

例如,在云计算中,可以将多个计算机集成在同一数据中心,来实现大规模的计算任务。

(2)分散式并行计算:分散式并行计算通常是通过网络进行协同工作,各个计算机或者处理器之间互相通讯,协同完成计算任务。

例如,在分布式系统中,每个计算机负责执行一部分计算任务,并将结果传递给其他计算机进行处理。

3.按照工作量分配策略分类根据工作量分配策略的不同,可以将并行计算分为以下几类。

(1)静态数据分配:静态数据分配是指将数据集按照静态的方法分配给各个处理器进行计算。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

2.1 并行算法设计
并行算法 是一些可同时执行的诸多进程的集合,这些进程相互作用和协调动 作从而达到给定问题的解。
并行算法的复杂度: 运行时间、处理器数目、并行算法的成本、总运算量
2.2 设计策略技术
1、并行算法设计
串行算法的直接并行化
设计新的算法 借用已有并行算法
2、划分设计技术:均匀划分、方根划分、对数划分、功能划分
4 稀疏矩阵向量乘法算例
3、矩阵向量的并行化分析
Creativity
4 稀疏矩阵向量乘法算例
4、矩阵向量并行算法
Creativity
4 稀疏矩阵向量乘法算例
5、
Creativity
4 稀疏矩阵向量乘法算例
6
Creativity
LOGO
参考文献: 并行计算-结构 算法 编程 [M]陈国良 基于MPI的矩阵运算并行算法研究[J] 周灿
2.4并行计算编程环境
2、共享存储并行编程
OpenMP 是一种面向共享内存以及分布式共享内存的多处理器多线
程并行编程语言
2.4并行计算实现过程
并行计算实现过程
3.1矩阵运算
1、矩阵的划分:
带状划分:块带状划分、循环带状划分
棋盘划分:块棋盘划分、循环棋盘划分阵乘法、矩阵分解、求逆、求特征值等

3、分治设计技术:平衡树技术、倍增设计技术、流水线设计技术
2.3 并行设计过程
1、任务划分:数据划分、功能划分
2、通信划分:局部/全局通信、结构化/非结构化、静态/动态、同步/异步
3、任务组合
4、处理器映射:负载平衡算法、任务调度算法
2.4并行计算编程环境
1、分布传递并行编程: 消息传递 MPI PVM并行虚拟机(Parallel Virtual Machine)
3.2 线性方程组的求解
1、直接求解 奇偶归约求解 有回代的列主元高斯消去 无回代的高斯-约旦法
2、迭代算法
Creativity 高斯-赛德尔迭代法
雅可比迭代法
超松弛迭代法 多重网格法
3.3 稀疏矩阵向量乘法算例
1、坐标存储法
Creativity
4 稀疏矩阵向量乘法算例
2、矩阵向量串行算法
Creativity
LOGO
并行计算算法

并行计算机基础
并行算法的设计
并行数值算法算例
1.1 并行计算 概念
并行计算(Parallel Computing) 是指在并行计算机或分布式计算机等一些高性能计算系统上所做的计 算,其硬件基础是高性能并行计算机。并行计算的主要目的是以最快 的速度求解数字庞大且过程繁杂的计算问题。
1.2 并行计算机分类
并行计算机 就是由多个处理单元(处理器或计算机)组成的计算机系统,这些处理单 元相互通信和协作,能快速、高效地求解大型复杂问题。
1、单指令多数据流(SIMD)型并行 2、多指令多数据流(MIMD)型并行机: 并行向量处理机、大规模并行处理机、分存共享存储多处理机、 对称多处理机、、工作站机群
1.3 并行计算机体系结构
并行计算机体系结构是指在所应用的并行 处理系统中各个节点机之间的连接方式。
1、总线结构
2、网格结构
3、超立方体结构
1.4 基本性能指标
1、 CPU和存储器:
工作负载:执行时间、指令数目、浮点运算数。
并行执行时间:计算时间+并行开销时间+相互通信时间 存储器的层次结构:容量、延迟、带宽 2、 机器的成本,价格与性能/价格比 3、 加速比性能:Amdahi定律、Gustafson定律、Sun和Ni定律
相关文档
最新文档