多核与多线程技术的区别到底在哪里
多核

1.多核与多处理器系统的主要区别是什么?多核处理器(CMP)就是将多个计算内核集成在一个处理器芯片中,从而提高计算能力。
按计算内核的对等与否,CMP可分为同构多核和异构多核。
计算内核相同,地位对等的称为同构多核。
反之称为异构多核。
多处理器指多个CPU,每个CPU可以是单核或多核的。
虽然同时使用多个CPU,但是从管理的角度来看,它们的表现就像一台单机一样。
对称多处理器(SMP)结构是近来最流行的多处理器结构,系统将任务队列对称地分布于多个CPU之上,从而极大地提高了整个系统的数据处理能力,而非对称结构已比较少见。
区别:多处理器系统多年前已经出现,它与多核系统的主要区别是:①多核系统只有一个物理处理器,这个物理处理器包含两个或更多个核,而多处理器系统有两个或更多个物理处理器。
②多核系统与多处理器系统性能相似,但成本常常要低得多,原因是多核处理器比多个相同的单个处理器价格要低,也不需要支持多个处理器的母板,如多处理器插头。
③多核系统也共享计算资源,在多处理器系统中这些资源常常是被复制的,如L2高速缓存和前端总线,多核处理器具有核间通讯和存储共享特点,而多处理器没有。
2.SIMD和MIMD所代表的计算模型是什么?主要区别和各自的系统结构示意图。
SPMD的含义是什么?答案:SIMD是同步并行计算模型,MIMD是异步并行计算模型。
SIMD单指令多数据流,以同步方式,在同一时间内执行同一条指令。
MIMD多指令多数据流,全面的并行处理。
各自的结构示意图:SPMD的含义是Single Program Multiple Data,单程序流多数据流。
(见上图)程序被拆分成多个子任务,子任务在多个处理器以不同的输入同时执行,以加快计算速度。
SIMD同步并行计算模型:①共享存储的SIMD模型(PRAM模型)②分布存储的SIMD模型(SIMD互联网络模型) MIMD异步并行计算模型:①异步PRAM模型②BSP模型③LogP模型④C3模型区别: SIMD计算机是所谓的阵列机,它有许多个处理单元(Pe),由同一个控制部件管理,所有Pe都接收控制部件发送的相同指令,对来自不同数据流的数据集合序列进行操作。
了解电脑CPU的核心和线程

了解电脑CPU的核心和线程在现代计算机科技领域中,中央处理器(CPU)是电脑硬件的核心组成部分。
而在CPU中,核心和线程则是决定其性能和功能的重要因素。
本文将从根本的角度解释电脑CPU的核心和线程,帮助读者更好地了解它们的作用和关系。
一、核心的定义与功能核心是CPU的主要处理单元,它负责执行指令、运算任务和数据的处理。
每个核心都包含着算术逻辑单元(ALU)、寄存器和控制单元等组件,能够独立地执行指令和操作数据。
同时,核心也是电脑多任务处理和多线程操作的基础。
多核技术是现代CPU发展中的重要趋势之一。
通过在一个CPU芯片上集成多个核心,计算机可以同时运行多个任务,提高系统的效率和响应速度。
例如,一款四核CPU就能够同时处理四个不同的任务,从而大大加快了计算机的运行速度。
尽管核心数量的增加可以提供更高的性能,但并不是核心数量越多越好。
实际上,大部分常规应用程序并不能充分利用多核心处理器的性能优势,因此在选购计算机时,需要综合考虑核心数量和实际需求。
二、线程的概念与作用线程是一个程序执行的最小单元,它是CPU调度和执行任务的基本单位。
在多核CPU中,每个核心可以同时运行多个线程,也就是所谓的多线程操作。
多线程技术可以使计算机系统的性能得到更好的发挥。
通过并行处理多个线程,CPU可以更高效地执行多任务,提高整体的运行速度和吞吐量。
例如,在同时运行多个应用程序时,每个程序可以被分配一个单独的线程来处理,从而避免了相互之间的干扰和冲突。
此外,线程还可以用于多线程编程和并发处理。
通过合理地利用线程,可以实现更高效的程序编写和任务分配,提高应用程序的性能和用户体验。
三、核心与线程的关系核心和线程在CPU中的关系密不可分。
每个核心都能同时执行一个线程,因此多核CPU可以同时处理多个线程,实现更高效的并行处理。
然而,核心的数量并不决定线程的数量。
一个核心可以通过多线程技术同时执行多个线程,这称为超线程技术(Hyper-Threading)。
微机技术原理知识点总结

微机技术原理知识点总结微机技术是计算机科学与技术的一个重要分支,是现代信息社会的基石。
微机技术的发展对人类社会的生产、生活和文化产生了深远的影响。
微机技术主要包括微处理器技术、微系统技术、微机系统及应用等方面的内容。
下面就微机技术原理进行总结,从微处理器、微型计算机系统、微机应用等几个方面进行介绍。
一、微处理器技术1. 微处理器的发展微处理器是微机的核心部件,它起着控制和运算的作用。
20世纪70年代初,英特尔公司推出了8位微处理器8080,从此开启了微处理器技术的发展时代。
而后,英特尔公司相继推出了8085、8086等一系列产品,为微处理器技术的发展做出了贡献。
2. 微处理器的功能微处理器作为微机的核心组件,其功能主要包括指令译码、运算逻辑单元、寄存器组等内容。
其中,指令译码是微处理器对指令进行解码并执行相应的操作;运算逻辑单元则负责对操作数执行各种算术逻辑运算;寄存器组则存储指令、操作数及中间结果。
3. 微处理器的结构微处理器的结构主要包括控制单元、运算逻辑单元、寄存器组等部分。
其中,控制单元负责指令译码及执行整个微处理器的工作;运算逻辑单元则负责进行各种运算操作;寄存器组则存储数据和指令。
微处理器的结构经过了多次改进,如哈佛结构、冯诺伊曼结构等,以提高其运算效率。
4. 微处理器的性能参数微处理器的性能参数主要包括指令执行速度、执行效率、指令集等参数。
其中,指令执行速度是指微处理器执行指令的速度,其影响因素主要包括时钟频率、指令集等;执行效率是指微处理器在执行各种任务时的效率。
指令集则是微处理器所支持的指令种类及其格式,不同的微处理器支持的指令集不同。
5. 微处理器的发展趋势随着科技的不断发展,微处理器技术也在不断更新,其发展趋势主要包括多核技术、多线程技术、嵌入式技术等方向。
其中,多核技术是指将多个核心集成到一个处理器中,以提高微处理器的运算能力;多线程技术则是通过同时处理多条指令以提高微处理器的运算效率;而嵌入式技术则是将微处理器集成到各种设备中,以满足不同的需求。
电子游戏多线程渲染技术的实时性能优化

电子游戏多线程渲染技术的实时性能优化随着电子游戏的不断发展,对游戏画面的要求也越来越高。
多线程渲染技术作为提高游戏画面质量和性能的重要手段,日益受到开发者的关注和应用。
本文将探讨电子游戏多线程渲染技术的实时性能优化。
一、概述多线程渲染技术是指利用多个线程同时渲染游戏画面,充分利用多核处理器的优势,提高游戏的渲染性能和效果。
传统的单线程渲染技术难以满足复杂游戏场景的要求,因此多线程渲染技术成为了解决问题的有效手段。
二、多线程渲染技术的优势1. 提高性能:多线程渲染技术能够将渲染任务分配给不同的核心进行处理,充分发挥多核处理器的并行计算能力,提高渲染性能。
2. 提升画面质量:多线程渲染技术能够通过更高的帧率和更细致的画面细节,提升游戏画面的真实感和逼真度。
3. 降低延迟:多线程渲染技术能够将渲染任务分解为多个子任务,在不同的核心上并行处理,减少了渲染过程中的延迟,提高了游戏的响应速度。
三、多线程渲染技术的实时性能优化策略1. 渲染任务划分:将渲染任务划分为多个子任务,并通过合理的任务调度算法将其分配给不同的核心进行处理。
可以基于任务的复杂度、优先级等因素进行任务划分和调度,以充分利用处理器资源,提高渲染效率。
2. 数据并行处理:通过对渲染数据进行分块或分段处理,使得多个线程可以同时进行渲染操作,充分利用处理器的并行计算能力。
同时,要合理控制不同线程之间的数据依赖关系,避免数据异常和渲染错误。
3. 线程优先级设置:给不同的渲染线程设置适当的优先级,以保证与用户交互相关的渲染任务能够及时得到处理,提高游戏的响应速度和用户体验。
4. 渲染资源管理:合理管理渲染资源,包括贴图、着色器等,以避免资源竞争和浪费。
可以采用资源池、资源预加载等策略来提高渲染效率和性能稳定性。
5. GPU与CPU的协作优化:多线程渲染技术需要GPU和CPU之间的协同工作,因此优化GPU与CPU之间的数据交互和通信是提高渲染性能的关键。
多核多线程与NP的区别

1、网络处理器NP的困境网络处理器NP是更加接近ASIC的处理器:期望能够达到接近ASIC的性能,同时又提供灵活的编程能力。
在不是十分复杂的网络应用中,网络处理器是比较适合的。
但是如果应用复杂的话,由于受限于一定的微码空间和不够灵活的业务处理流程,网络处理器就显得比较被动了。
使用网络处理器设计整个系统,会从一定程度上降低整个系统对于修改或者升级业务需求方面的响应速度,固定大小的微码空间也限制了应用的丰富性;不同的网络处理器对业务应用的适应性也存在各种各样的限制,对于真正的灵活业务应用,网络处理器还是缺乏必需的灵活变通的能力。
2 传统单核处理器发展的瓶颈图2 单核处理器发展的瓶颈处理性能高低与处理器、内存以及I/O外设访问的速度也是密切相关的。
从图中可以看出,在性能提升方面,处理器主频,内存访问速度以及I/O访问速度的发展十分不平衡。
处理器的主频每两年就要翻一番,而内存访问的速度要每六年才能提高一倍,而I/O访问的速度要提高一倍的话需要八年的时间。
所以处理器与I/O的发展不均衡已经对整机性能提升产生了很大的瓶颈,单纯依靠提高处理器主频来提升整个系统的性能已经不可行,因为大部分时间,CPU都在等待内存或者I/O访问的返回才能继续下一步的工作。
而高主频处理器的设计对生产制造工艺要求非常高,生产难度大,成品率也较低,因此造成生产的成本居高不下。
3 希望:多核处理器从用户角度看,他们需要的是一种编程简单,针对市场需求升级容易,而且能提供强大吞吐量的处理器产品。
因此,符合上述特征的新一代处理器产品及解决方案便成为市场争相追逐的焦点。
图3 微处理器的竞争布局从上图可以看到,对于网络设备而言,采用的微处理器有以下几类:1. 嵌入式CPU2. 通用CPU3. ASIC芯片4. 网络处理器(NP)从处理器的报文转发能力上看:通用CPU < 嵌入式CPU < 网络处理器 < ASIC而从四到七层业务处理能力上看:ASIC < 嵌入式CPU < 网络处理器 < 通用CPUl 通用CPU通用CPU一般指x86系列,主要厂家是Intel和AMD。
CPU的主要性能参数

CPU的主要性能参数CPU主要性能参数是指用来衡量CPU性能的参数。
下面将介绍几个主要的性能参数:1. 主频(Clock Speed):主频指的是CPU内部时钟的频率,表示CPU每秒钟能够执行的指令数。
主频越高,CPU的处理速度越快。
单位为Hz(赫兹)。
2. 核心数(Number of Cores):核心数指的是CPU中独立执行指令的处理单元数量。
多核CPU可以同时执行多个任务,提高系统的并发处理能力。
3. 线程数(Number of Threads):线程数指的是CPU同时可处理的线程数量。
每个核心可以同时执行多个线程。
多线程技术可以提高并行处理能力,提高系统的响应速度。
4. 缓存(Cache):缓存是CPU内部存储器,用于存放频繁使用的数据和指令,以提高数据的读取速度。
缓存分为L1、L2、L3等级别,级别越高,容量越大,速度越快。
5. 插槽类型(Socket):插槽类型指的是CPU和主板上插槽的对应关系。
不同的CPU型号通常会使用不同的插槽类型,所以在选择CPU时需要确保与主板兼容。
6. 制程工艺(Process Technology):制程工艺是指CPU芯片制造过程中的技术,制程工艺的进步可以提高芯片的性能和效能。
常见的制程工艺有14nm、10nm、7nm等。
7. TDP(Thermal Design Power):TDP是指CPU在正常工作状态下消耗的热量,也被用来作为CPU散热系统设计的参考。
TDP越高,CPU的功耗越大,需要更好的散热系统。
8. 性能评分(Performance Rating):性能评分是指厂商根据CPU的性能指标进行的评分。
常见的性能评分有PassMark、Cinebench等。
9. 指令集(Instruction Set):指令集是CPU能够执行的指令集合。
常见的指令集有x86、ARM等,不同的指令集对应不同的CPU架构和应用场景。
10. 超线程技术(Hyper-Threading):超线程技术可以让单个核心同时处理两个线程,提高CPU的并行处理性能。
超级计算机技术方案对比分析

超级计算机技术方案对比分析随着科技的不断发展,超级计算机的应用越来越广泛,对各行各业的影响也越来越明显。
从遥感图像分析到气象预报,从药物研究到交通流量优化,无处不体现着超级计算机的重要作用。
本文将从计算机技术方案的角度出发,对目前主流的超级计算机技术方案进行对比分析,为读者介绍最新的超级计算机技术发展趋势及其优缺点。
一、传统超级计算机技术方案传统超级计算机技术方案主要包括向量型、并行型和矩阵型三种。
这三种方案均是基于硬件加速器的方式实现的。
向量型超级计算机是一种使用向量处理器的计算机,可以大幅提高计算速度。
其中,向量处理器是一种专门的指令集处理器,其操作对象是一组相同类型的数据向量。
这种架构在80年代黄金时期使用较多,由于存在性能瓶颈和程序设计的限制,已经被淘汰。
并行型超级计算机是一种采用并行处理器的计算机,包括多个CPU 处理器和共享存储器。
并行型超级计算机可以实现复杂计算任务的分解与并行计算,但由于通信以及内存瓶颈问题,当节点增加时,性能增益逐渐减少。
矩阵型超级计算机是一种采用矩阵处理器的计算机,可以通过将大规模矩阵的计算分成小部分并行计算来提高计算速度。
由于在各项指标上均有非常卓越的表现,矩阵型超级计算机曾在20世纪90年代至21世纪初期占据主导地位。
二、异构系统超级计算机技术方案异构系统超级计算机是一种新兴的技术方案,它采用了异构的硬件加速器,如GPU、FPGA、ASIC等。
与传统超级计算机相比,异构系统的硬件加速器能够高效地执行数据访问、并行计算等任务,极大优化了系统的性能表现。
在异构系统中,CPU主要用于控制和调度,负责处理复杂的分支、循环和协调计算任务,而GPU则负责大规模计算和存储。
通过任务分解和数据切片等技术,复杂计算任务被拆分为不同的计算单元,分别在CPU和GPU上执行。
这种方式不但高效利用计算资源,而且在提升计算速度的同时提高了能源效率。
其次,FPGA(Field Programmable Gate Array)的引入也是异构系统超级计算机的一大特点。
了解电脑中的多核处理器和单核处理器的区别

了解电脑中的多核处理器和单核处理器的区别电脑中的多核处理器和单核处理器的区别随着科技的进步,电脑的处理器也在不断地更新换代。
在过去,单核处理器是主流,但如今多核处理器逐渐成为新的趋势。
那么,多核处理器和单核处理器之间到底有什么区别呢?本文将就此问题进行探讨。
一、概念解析1. 单核处理器:单核处理器又称为单核心处理器,是指一颗芯片内只含有一个处理核心的处理器。
它只能处理一个指令流,并在给定的时间内执行一个任务。
单核处理器适合用于简单应用,如浏览网页、发送电子邮件等。
2. 多核处理器:多核处理器是指一颗芯片内含有两个及以上的处理核心,能同时处理多个指令流。
多核处理器的核心数量越多,能并行处理的任务就越多,整体性能也会更强大。
多核处理器适合处理大规模的数据、进行复杂的图像处理、模拟和渲染等应用。
二、性能比较1. 单核处理器的优势和劣势:单核处理器的设计相对简单,功耗较低,价格也相对较低。
它适用于简单任务和对性能要求不高的应用。
但由于只有一个核心,处理能力有限,对于运行复杂的软件和多任务处理时,速度较慢,响应时间较长。
2. 多核处理器的优势和劣势:多核处理器通过并行处理技术,能够实现多任务同时进行,提高整体处理能力和效率。
多核处理器适用于高性能计算、多媒体处理以及需要同时进行多个任务的场景。
然而,多核处理器的设计更加复杂,功耗较高,价格也相对较高。
同时,某些应用程序并不支持多线程或多核技术,无法充分发挥多核处理器的优势。
三、适用领域1. 单核处理器的适用领域:由于功耗低、性价比高的特点,单核处理器广泛应用于日常办公、网页浏览、电子邮件等简单应用场景。
同时,单核处理器也适用于一些对性能要求不高的专门设备,如智能家居、智能手环等。
2. 多核处理器的适用领域:多核处理器适用于需要处理大规模数据、进行复杂计算的领域,如科学计算、人工智能、图像处理、视频编辑等。
同时,多核处理器也为多媒体应用、游戏开发和虚拟现实等提供了更高的性能支持。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
多核与多线程技术的区别到底在哪里?
【导读】:毫无疑问的,“多核”、“多线程”此二词已快成为当今处理器架构设计中的两大显学,如同历史战国时代以“儒”、“墨”两大派的显学,只不过当年两大治世思想学派是争得你死我亡,而多核、多线程则是相互兼容并蓄,今日几乎任何处理器都朝同时具有多核多线程的路线发展迈进。
毫无疑问的,“多核”、“多线程”此二词已快成为当今处理器架构设计中的两大显学,如同历史战国时代以“儒”、“墨”两大派的显学,只不过当年两大治世思想学派是争得你死我亡,而多核、多线程则是相互兼容并蓄,今日几乎任何处理器都朝同时具有多核多线程的路线发展迈进。
虽然两词到处可见,但可有人知此二者的实际差异?在执行设计时又是以何者为重?到底是该多核优先还是多线程提前?关于此似乎大家都想进一步了解,本文以下试图对此进行个中差异的解说,并尽可能在不涉及实际复杂细节的情形下,让各位对两者的机制观念与差别性有所理解。
行程早于线程
若依据信息技术的发展历程,在软件程序执行时的再细分、再切割的小型化单位上,先是有行程(Process),之后才有线程(Thread),线程的单位比行程更小,一个行程内可以有多个线程,在一个行程下的各线程,都是共享同一个行程所建立的内存寻址资源及内存管理机制,包括执行权阶、内存空间、堆栈位置等,除此之外各个线程自身仅拥有少许因为执行之需的变量自属性,其余都依据与遵行行程所设立的规定。
相对的,程序与程序之间所用的就是不同的内存设定,包括分页、分段等起始地址的不同,执行权阶的不同,堆栈深度的不同等,一颗处理器若执行了A行程后要改去执行B行程,对此必须进行内存管理组态的搬迁、变更,而这个搬迁若是在处理器内还好,若是在高速缓存甚至是系统主存储器时,此种切换、转移程序对执行效能的损伤就非常大,因为完成搬迁、切换程序的相同时间,处理器早就可以执行数十到上千个指令。
两种路线的加速思维
所以,想避免此种切换的效率损耗,可以从两种角度去思考,第一种思考就是扩大到整体运算系统的层面来解决,在一部计算机内设计、配置更多颗的处理器,然后由同一个操作系统同时掌控及管理多颗处理器,并将要执行的程序的各个程序,一个程序喂(也称:发派)给一颗处理器去执行,如此多颗同时执行,每颗处理器执行一个程序,如此就可以加快整体的执行效率。
当然!这种加速方式必须有一个先决条件,即是操作系统在编译时就必须能管控、发挥及运用多行程技术,倘若以单行程的系统组态来编译,那么操作系统就无法管控服务器内一颗以上的处理器,如此就不用去谈论由操作系统负责让应用程序的程序进行同时的多颗同时性的执行派送。
即便操作系统支持多程序,而应用程序若依旧只支持单程序,那情形一样是白搭,操作
系统无法对单行程程序再行拆分,依然是只喂入单一颗处理器上去执行,无从加速。
同时用多颗处理器来执行,且每颗处理器执行一个行程,这是一种加速法,另一种加速法则是:尽量不进行内存管理组态的切换,避免切换的效能折损,线程正是在此概念下所出现的产物。
不过,线程也要程序的搭配才能发挥,线程的概念出现与落实已是“C++看消、Java看长”的阶段,所以C++只能通过API呼用的方式来支持与使用多线程,如此必须改写过往的程序才行,改写成有呼用到支持多线程的API才行。
相对的,较C++晚问世的Java则是原生支持多线程,不用改写也能发挥及运用多线程的特性及其加速效益。
有了线程后,执行的分割、切割更加细腻,线程机制不仅在多颗处理器的系统内可以加速,在单颗处理器内也一样能获得好处,在多颗处理器的系统上每颗处理器不仅可以单独执行一个程序,当然也可以单独执行一个线程,而在单处理器系统上因为省去内存管理组态的搬迁,所以一样可以加速,很明显的,线程使执行的发派、分配更加细腻与灵活化。
线程的副作用
线程虽有好用的优点,不过它也有副作用的缺点,且此一优缺是一体两面无从分割,缺点是各个线程共享同一组内存管理组态及机制,倘若有一个线程的执行发生错误、瑕疵、或遭入侵等,其余在同一个行程内的每个线程也都会遭受影响、波及,最严重是同一个行程内的一切都错乱、毁坏,由此可知:线程其实是带有若干安全性牺牲的加速法。
此外有人会误会,就字面上而言,多核表示同时间有多颗处理器在执行,每颗处理器可以执行一个行程或一个线程,但是一颗具有多线程能力的处理器并不表示它可以同时执行多个线程,事实上在同一时间内一颗具多线程功效的处理器也依然是执行一个线程而已,只是多线程处理器的内部可以将原有线程的相关信息及变量暂时搁摆,然后去执行其它的线程,执行完后在切换回原来执行到一半的线程,甚至没执行完也可以切换回来,且整个切换过程都在处理器内进行,不用与快取与内存进行搬迁置换,如此以快速换线程执行的方式来加速。
相对于此的,一颗不具多线程能力的处理器,执行一个线程到一半若想改执行另一个线程,就必须将原线程、现线程的相关内容与信息搬迁到快取或内存,然后自快取及内存引入另一个线程,由于此一搬转颇耗时,所以多半选择将原有的线程执行完再引入下一个线程,如此在时间上可能还比较经济。
然而无论一线程完整执行后再执行下一个线程,还是进行线程的进出搬迁转移,都不会比具备多线程能力的处理器来的快速有效。
至此我们可以归纳整理:
1.多核、多处理器系统中的每颗处理器(每个核),同时间内可以执行各自不同的行程(或线程)。
2.一颗多线程能力的处理器,无论是支持二线程、四线程、八线程,这些线程都必须是在同一个行程内,所以一颗处理器(一个核)还是只能执行一个行程,双核处理器就能够同时执行两个不同的行程(或线程),四核就可以同时不同的四个行程(或线程)。
3.倘若是执行不支持多线程的程序,其执行上的分拆最多只到行程而未到线程,那么每颗处理器内的多线程功效就无从发挥,而这类的程序历史较长久,相对的原生支持多线程的程序历史较短,不过信息技术的脚步向来进展快速,两种不同层次的支持仅差距数年时间。
产业实际发展可为证明
真的是多核优于、先于多线程吗?关于此可通过产业实际发展做为应证,Sun的UltraSPARC T1处理器(研发代号:Niagara)是八核四线程的设计,但接续的UltraSPARC T2处理器(研发代号:Niagara 2)则是八核八线程的设计,所以是核多、核优先,然后再来拉跋、提升线程的执行。
同样的,IBM为Microsoft Xbox 360所设计的Xenon处理器,是个三核二线程的设计,核数依然是高于线程数,又如IBM、Sony、Toshiba三家业者合研的Cell处理器,现有第一代的Cell(研发代号:DD1)是九核,组态上是八核媒体(SPE)、一核泛用(PPE),新一代的Cell(研发代号:DD2)也针对PPE的部分进行双线程发展,如此再次表示核比线程重要,当Cell仅进行增一线程的扩展改进时,而非再增一核,即可知这仅是一次小幅的改进。
“多核”、“多线程”之外还有“多令”、“多机”
最后,且让我们谈谈与多核、多线程不同加速走向的“多令”,“多令”是笔者发明的词,指的是比执行行程(Process)、线程(Thread)更基底层次的执行指令(Instruction),多核的作法是尽可能在同时间内执行多个行程,多令则是尽可能在同时间内执行多个指令,学术上的VLIW与产业上的EPIC皆是多令理念下的架构。
到目前为止多令并非不可行,但仅行于数字信号、图像等处理,绘图芯片、媒体处理器等多实行VLIW架构,然多令在泛用运算上却未见效益,至于科学研究之类的高效运算也倾向使用更高层次的平行:多机(丛集、网格,执行范畴与分配类同于线程、行程),看来多令、多程/线程、多机各有所用,端看运用场合的适切性。