CPU架构简介
CPU的结构和功能解析

CPU的结构和功能解析CPU(Central Processing Unit,中央处理器)是计算机中的核心部件,负责执行指令、进行算术和逻辑运算以及控制外部设备的操作。
CPU的结构和功能是计算机硬件设计中的重要内容。
本文将对CPU的结构和功能进行解析。
一、CPU的结构1. 控制器(Control Unit):控制器是CPU的指挥中心,负责协调和控制整个计算机系统的运行。
它从内存中读取指令并对其进行解释与执行。
控制器由指令寄存器(Instruction Register,IR)、程序计数器(Program Counter,PC)和指令译码器(Instruction Decoder)等构成。
-指令寄存器(IR):用于存储当前从内存中读取的指令。
-程序计数器(PC):存储下一条需要执行的指令在内存中的地址。
- 指令译码器(Instruction Decoder):对指令进行解码,将其转化为相应的操作信号。
2.运算器(ALU):运算器是负责执行算术和逻辑运算的部件。
它可以进行整数运算、浮点数运算、位操作等。
运算器通常包含多个加法器、乘法器和逻辑门电路,以实现不同的运算功能。
3. 寄存器(Registers):寄存器是CPU内部的高速存储器,用于存储指令、数据、地址等信息。
寄存器分为通用寄存器、程序计数器和状态寄存器等多种类型。
-通用寄存器:用于存储临时数据和计算结果,供运算器使用。
-程序计数器:存储下一条需要执行的指令的地址。
- 状态寄存器:用于存储CPU的运行状态,如零标志(Zero Flag)、进位标志(Carry Flag)等。
二、CPU的功能CPU的功能主要包括指令执行、运算处理、控制管理和数据存取等方面。
1.指令执行:CPU从内存中读取指令,进行解码并执行相应的操作。
不同指令的功能包括数据传输、算术运算、逻辑运算、条件分支、循环等。
2.运算处理:CPU通过运算器进行各种算术和逻辑运算。
算术运算包括加法、减法、乘法和除法等操作,逻辑运算包括与、或、非、异或等操作。
了解计算机硬件架构CPUGPU等

了解计算机硬件架构CPUGPU等了解计算机硬件架构:CPU、GPU等计算机硬件架构是指计算机系统中各个硬件组件之间的关系和连接方式。
其中,中央处理器(CPU)和图形处理器(GPU)是计算机中最重要的两个硬件组件。
本文将从CPU和GPU的架构、功能以及应用等方面进行详细介绍。
一、中央处理器(CPU)中央处理器是计算机中的核心组件,负责执行各种计算和控制操作。
CPU通常由控制单元、算术逻辑单元(ALU)和寄存器组成。
1. 架构常见的CPU架构包括x86、ARM和MIPS等。
x86是主流桌面和服务器领域的架构,而ARM则主要用于移动设备和嵌入式系统。
不同的架构影响着CPU指令集和性能表现。
2. 功能CPU的主要功能是解析并执行计算机指令,包括算术计算、逻辑运算、内存访问和控制流程等。
此外,CPU还负责管理和调度系统资源,以保证各个任务的正常进行。
3. 应用CPU广泛应用于各种计算机设备中,包括个人电脑、服务器、超级计算机等。
随着计算需求的增加,CPU的性能和能效也在不断提升,为计算机领域的发展做出了重要贡献。
二、图形处理器(GPU)图形处理器是计算机中用于图形处理和计算的专用处理器。
它以高并行计算能力和专业的图像处理功能著称。
1. 架构GPU通常采用SIMD(单指令多数据流)架构,能够同时处理多个数据流。
不同于CPU的通用计算能力,GPU更适用于高度并行的任务,如图形渲染、深度学习和密码破解等。
2. 功能GPU的主要功能是进行图像渲染和图形计算。
它具有大规模并行处理单元和高速内存,能够高效地处理复杂的图像运算和计算任务。
3. 应用GPU最初主要用于游戏和图形设计领域,但随着计算需求的增加,GPU的计算能力逐渐得到充分利用。
现如今,在人工智能、科学计算和密码学等领域,GPU扮演着不可或缺的角色。
三、其他硬件架构除了CPU和GPU,计算机还包含许多其他重要的硬件组件,如内存、存储器、输入输出设备等。
它们共同构成了计算机系统的完整架构。
CPU结构详解范文

CPU结构详解范文CPU(中央处理器)是计算机的核心部件之一,也是控制和执行计算机指令的关键部分。
下面将对CPU的结构进行详细的解释。
CPU的结构可分为五个主要部分:运算器(ALU)、控制器、寄存器组、数据通路和系统总线。
1. 运算器(ALU):运算器是CPU中负责执行算术和逻辑运算的部分。
它包含各种电子电路,用于执行加法、减法、乘法、或运算、与运算等运算操作。
运算器还包括累加器(accumulator),用于存储运算结果。
2. 控制器:控制器负责控制计算机的操作和指令的执行顺序。
它通过解码指令并产生相应的控制信号来实现对CPU内部电路的控制。
控制器还包括程序计数器(program counter),用于存储当前执行的指令地址。
3. 寄存器组:寄存器组是一组特殊的存储器单元,用于高速存储数据和地址。
它们位于CPU内部,用于保存当前指令、操作数和中间结果。
常见的寄存器包括累加器、指令寄存器(instruction register)、存储地址寄存器(mar)、存储器缓冲寄存器(mdr)等等。
4.数据通路:数据通路是计算机内部各个部件之间传递数据的路径。
它由各种电子电路和线路组成,用于传输运算器、寄存器和内存之间的数据和控制信号。
数据通路中还包括数据选择器、多路器、解码器等电路,用于实现不同的数据传输部件。
5.系统总线:系统总线是CPU和计算机内其他部件之间传递数据和控制信号的通道。
总线可分为数据总线、地址总线和控制总线三个部分。
数据总线用于传输数据,地址总线用于传输内存或外设的地址,控制总线用于传输各种控制信息。
总体来说,CPU的工作原理是通过不同部件之间的协作来完成各种计算和指令执行任务。
当计算机执行一条指令时,控制器首先从内存中读取指令,并解码成相应的控制信号。
接下来,控制信号通过数据通路传递给运算器和寄存器组,运算器执行相应的算术或逻辑运算,寄存器组保存运算结果和中间数据。
最后,数据和控制信号通过系统总线传递给内存或外设。
CPU架构讲解 X86、ARM、RISC、MIPS

CPU架构讲解X86、ARM、RISC、MIPS一、当前CPU的主流架构:1.X86架构采用CISC指令集(复杂指令集计算机),程序的各条指令是按顺序串行执行的,每条指令中的各个操作也是按顺序串行执行的。
2.ARM架构是一个32位的精简指令集(RISC)架构。
3.RISC-V架构是基于精简指令集计算(RISC)原理建立的开放指令集架构。
4.MIPS架构是一种采取精简指令集(RISC)的处理器架构,可支持高级语言的优化执行。
CPU架构是CPU厂商给属于同一系列的CPU产品定的一个规范,是区分不同类型CPU的重要标示。
二、目前市面上的CPU分类主要分有两大阵营:1.intel、AMD为首的复杂指令集CPU;2.IBM、ARM为首的精简指令集CPU。
两个不同品牌的CPU,其产品的架构也不相同,例如,Intel、AMD的CPU是X86架构的,而IBM的CPU是PowerPC架构,ARM是ARM架构。
三、四大主流CPU架构详解(X86、ARM、RISC、MIPS)1.X86架构X86是微处理器执行的计算机语言指令集,指一个Intel通用计算机系列的标准编号缩写,也标识一套通用的计算机指令集合。
1978年6月8日,Intel 发布了新款16位微处理器8086,也同时开创了一个新时代:X86架构诞生了。
X86指令集是Intel为其第一块16位CPU(i8086)专门开发的,IBM 1981年推出的世界第一台PC机中的CPU–i8088(i8086简化版)使用的也是X86指令。
采用CISC(Complex Instruction Set Computer,复杂指令集计算机)架构。
与采用RISC不同的是,在CISC处理器中,程序的各条指令是按顺序串行执行的,每条指令中的各个操作也是按顺序串行执行的。
顺序执行的优点是控制简单,但计算机各部分的利用率不高,执行速度慢。
随着CPU技术的不断发展,Intel陆续研制出更新型的i80386、i80486直到今天的Pentium 4系列,但为了保证电脑能继续运行以往开发的各类应用程序以保护和继承丰富的软件资源,所以Intel所生产的所有CPU仍然继续使用X86指令集。
CPU的多核心架构及计算单元详解

CPU的多核心架构及计算单元详解中央处理器(CPU)是计算机系统中的核心组件之一,它承担着执行计算和控制操作的任务。
随着计算机的快速发展,人们对于性能的要求也越来越高。
为了满足用户对于多任务处理和高性能计算的需求,CPU的多核心架构逐渐兴起。
本文将详细介绍CPU的多核心架构以及其中的计算单元。
一、CPU的多核心架构1.1 多核心概念及发展多核心是指在一个CPU芯片上集成多个独立的处理器核心。
与传统的单核心CPU相比,多核心架构能够同时处理多个线程或任务,提升计算机的整体性能。
多核心架构的发展源于摩尔定律的进展。
根据摩尔定律,集成电路中的晶体管数量每18个月翻倍,这意味着CPU的计算能力也在同期间不断提升。
然而,到了一定程度,提升频率并不能显著增加CPU的性能,因为频率增加会导致功耗和发热的问题。
因此,为了进一步提升性能,多核心架构成为了解决方案。
1.2 多核心的优势多核心架构具有如下几个优势:1.2.1 提升系统性能:多核心能够同时处理多个任务或线程,有效提高了系统的整体性能。
特别是对于多线程应用程序或者同时执行多个任务的场景,多核心能够更好地满足用户需求。
1.2.2 节能降耗:与提升频率相比,多核心架构能更好地平衡性能和功耗。
通过将任务分配到多个核心上执行,每个核心的工作频率可以降低,从而减少功耗和发热,延长电池续航时间。
1.2.3 增强并行计算能力:多核心为并行计算提供了强大的支持。
对于需要大量计算的应用程序,多个核心可以同时进行计算,加速处理过程。
1.3 多核心架构的实现方式多核心架构的实现方式主要有对称多处理(SMP)和复杂指令集计算(CISC)。
对称多处理(SMP)是指每个核心拥有相同的访问权限和权力,可以独立运行不同的任务。
SMP架构中,每个核心可以共享同一份操作系统,从而实现大部分应用程序的并行执行。
复杂指令集计算(CISC)则是在一个CPU芯片上,集成多个核心以及专用的计算单元,每个计算单元负责执行特定类型的计算任务。
电脑CPU架构解析常见的处理器有哪些优势和劣势

电脑CPU架构解析常见的处理器有哪些优势和劣势电脑CPU架构,作为计算机硬件的核心组成部分,直接影响着计算机的性能和稳定性。
不同的处理器架构在设计思想、指令集、运算速度等方面存在着差异。
本文将解析常见的处理器架构,并探讨它们各自的优势和劣势。
一、x86架构x86架构是目前最为广泛应用的处理器架构,它由英特尔公司于20世纪80年代推出,目前代表产品为英特尔的酷睿系列处理器。
x86架构具有以下优势和劣势:优势:1.应用广泛:x86架构广泛应用于个人电脑和服务器领域,具有良好的兼容性,可以运行绝大多数的软件和操作系统。
2.生态完善:基于x86架构的处理器拥有庞大的生态系统,有大量的研发和生产厂商,从而带来更多的硬件和软件选择。
3.性能强劲:x86架构在同等工艺制程下,可以提供较高的性能,具备较高的单核和多核处理能力,适用于多线程和计算密集型任务。
劣势:1.功耗较高:由于x86架构的复杂性和发展历史的积累,导致其功耗比其他架构要高一些。
这也限制了其在移动设备等低功耗领域的应用。
2.价格较高:鉴于x86架构的成熟度和市场份额,其产品价格一般较高,不利于低成本应用领域的推广。
3.指令冗余:x86架构的指令集较为冗余,指令执行效率不如精简指令集架构(RISC)。
二、ARM架构ARM架构是一种精简指令集计算机(RISC)架构,广泛应用于移动设备领域,代表产品为高通、苹果等公司的处理器。
ARM架构具有以下优势和劣势:优势:1.低功耗:ARM架构以其简洁而高效的设计,具备较低的功耗,适用于移动设备等对续航能力要求较高的领域。
2.强大的图形处理能力:基于ARM架构的处理器通常搭载了较为先进的图形核心,具备出色的图形处理能力,适用于游戏和媒体应用。
3.灵活性高:ARM架构可根据需求进行定制和扩展,非常适合于定制芯片和嵌入式系统领域。
劣势:1.兼容性较弱:由于ARM架构相对于x86架构有所不同,存在着较弱的兼容性。
某些PC软件和操作系统可能无法直接在ARM架构上运行。
了解一下CPU的架构对性能和功耗的影响

了解一下CPU的架构对性能和功耗的影响CPU(Central Processing Unit,中央处理器)是计算机系统中的核心组件,对计算机的性能和功耗有着很大的影响。
了解CPU的架构对于优化计算机系统和提升性能至关重要。
本文将介绍不同的CPU架构及其对性能和功耗的影响。
一、CPU架构简介CPU架构是指CPU的内部组成和工作原理。
常见的CPU架构包括CISC(Complex Instruction Set Computer,复杂指令集计算机)和RISC (Reduced Instruction Set Computer,精简指令集计算机)。
1. CISC架构:CISC架构的CPU设计追求简化程序的编写和执行,通过提供复杂的指令集来实现功能。
CISC架构的CPU内部包含大量的指令集和复杂的微操作,这样可以让程序员用更少的指令就完成更多的功能。
然而,CISC架构也因为设计过于复杂而导致了一些问题,比如执行速度较慢、功耗较高等。
2. RISC架构:RISC架构的CPU设计追求简化CPU内部的指令集和微操作,通过提供少量简单的指令来实现功能。
RISC架构的CPU内部只包含基本的指令集,这样可以提高指令的执行效率和速度。
RISC架构的CPU相对于CISC架构来说,执行速度更快,功耗更低。
二、架构对性能的影响CPU架构对计算机的性能有着直接的影响。
不同的架构在指令集设计、微操作执行等方面存在差异,从而影响了CPU的性能。
1. 指令集设计:CISC架构的指令集更为复杂,可以完成更多的功能。
但是由于指令集的复杂性,导致指令的执行速度相对较慢。
而RISC架构的指令集更为简单,指令的执行速度更快。
因此,在同样的计算任务下,RISC 架构的CPU可以更快地完成计算,提高了计算机的性能。
2. 微操作执行:CISC架构的CPU内部包含大量的微操作,执行起来较为复杂。
相比之下,RISC架构的CPU内部只包含少量的微操作,执行起来更为简单。
CPU的结构和功能解析

CPU的结构和功能解析CPU(中央处理器)是计算机的核心组件,它被设计用于执行各种计算和数据处理任务。
CPU的结构和功能包括以下几个方面:1. 控制单元(Control Unit):控制单元是CPU的一个重要组成部分,负责协调和管理所有的计算机操作。
它从存储器中读取指令并解码,然后将其发送到其他部件以执行相应的操作。
控制单元还负责处理器内部的时序和同步操作。
2. 算术逻辑单元(Arithmetic Logic Unit,ALU):ALU是CPU的核心部分,负责执行计算和逻辑运算。
它可以执行加减乘除、移位、逻辑运算(与、或、非)等操作。
ALU的设计通常包括一组寄存器,用于存储和处理操作数和结果。
3. 寄存器(Register):寄存器是CPU内部的高速存储器,用于存储临时数据和指令。
CPU中包含多个不同类型的寄存器,如数据寄存器、地址寄存器、程序计数寄存器等。
寄存器具有极快的读写速度,能够提高数据的访问效率。
4. 数据总线和地址总线(Data Bus and Address Bus):数据总线用于在各个组件之间传输数据,地址总线用于标识存储器中的特定位置。
数据总线的宽度决定了CPU能够同时处理的数据量,地址总线的宽度决定了CPU能够寻址的存储器空间大小。
5. 运算器(Arithmetic Unit):运算器是CPU的一个子部件,用于执行数学运算,如加法、减法、乘法和除法。
运算器通常由ALU和一些辅助电路组成,它能够高效地进行数值计算。
6. 控制器(Controller):控制器是CPU的另一个子部件,负责控制和协调各个组件之间的操作。
它从指令存储器中获取下一条指令,并将其发送给控制单元解码执行。
控制器还负责处理各种中断和异常情况,以及调度和控制指令的执行顺序。
7. 存储器接口(Memory Interface):存储器接口是CPU与主存储器之间的桥梁,负责传输数据和指令。
存储器接口包括地址解码器、读写电路、数据缓冲器等,它能够提供合适的接口和协议,以保证数据的高效传输和正确处理。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
这里就不去管细节,简单来谈一下,ARM和X86之间为什么不太具有可比性的问题。
要搞清楚这个问题首先要明白什么是架构,之前也有很多人提到了架构不同,但架构是什么意思?它是一个比较抽象的概念,不太容易用几句话就解释清楚。
我们要明白CPU是一个执行部件,它之所以能执行,也是因为人们在里面制作了执行各种功能的硬件电路,然后再用一定的逻辑让它按照一定的顺序工作,这样就能完成人们给它的任务。
也就是说,如果把CPU看作一个人,首先它要有正常的工作能力(既执行能力),然后又有足够的逻辑能力(能明白做事的顺序),最后还要听的懂别人的话(既指令集),才能正常工作。
而这些集中在一起就构成了所谓的“架构”,它可以理解为一套“工具”、“方法”和“规范”的集合。
不同的架构之间,工具可能不同,方法可能不同,规范也可能不同,这也造成了它们之间的不兼容——你给一个意大利泥瓦匠看一份中文写成的烹饪
指南,他当然不知道应该干什么了。
如果还看不懂,没关系,我们继续。
从CPU发明到现在,有非常多种架构,从我们熟悉的X86,ARM,到不太熟悉的MIPS,IA64,它们之间的差距都非常大。
但是如果从最基本的逻辑角度来分类的话,它们可以被分为两大类,即所谓的“复杂指令集”与“精简指令集”系统,也就是经常看到的“CISC”与“RISC”。
属于这两种类中的各种架构之间最大的区别,在于它们的设计者考虑问题方式的不同。
我们可以继续举个例子,比如
说我们要命令一个人吃饭,那么我们应该怎么命令呢?我们可以直接对他下达“吃饭”的命令,也可以命令他“先拿勺子,然后舀起一勺饭,然后张嘴,然后送到嘴里,最后咽下去”。
从这里可以看到,对于命令别人做事这样一件事情,不同的人有不同的理解,有人认为,如果我首先给接受命令的人以足够的训练,让他掌握各种复杂技能(即在硬件中实现对应的复杂功能),那么以后就可以用非常简单的命令让他去做很复杂的事情——比如只要说一句“吃饭”,他就会吃饭。
但是也有人认为这样会让事情变的太复杂,毕竟接受命令的人要做的事情很复杂,如果你这时候想让他吃菜怎么办?难道继续训练他吃菜的方法?我们为什么不可以把事情分为许多非常基本的步骤,这样只需要接受命令的人懂得很少的基本技能,就可以完成同样的工作,无非是下达命令的人稍微累一点——比如现在我要他吃菜,只需要把刚刚吃饭命令里的“舀起一勺饭”改成“舀起一勺菜”,问题就解决了,多么简单。
这就是“复杂指令集”和“精简指令集”的逻辑区别。
可能有人说,明显是精简指令集好啊,但是我们不好去判断它们之间到底谁好谁坏,因为目前他们两种指令集都在蓬勃发展,而且都很成功——X86是复杂指令集(CISC)的代表,而ARM则是精简指令集(RISC)的代表,甚至ARM的名字就直接表明了它的技术:Advanced RISC Machine——高级RISC机。
到了这里你就应该明白为什么RISC和CISC之间不好直接比较性能了,因为它们之间的设计思路差异太大。
这样的思路导致了CISC和RISC分道扬镳——前者更加专注于高性能但同时高功耗的实现,而后者则专注于小尺寸低功耗领域。
实际上也有很多事情CISC更加合适,而另外一些事情则是RISC更加合适,比如在执行高密度的运算任务的时候CISC就更具备优势,而在执行简单重复劳动的时候RISC就能占到上风,比如假设我们是在举办吃饭大赛,那么CISC只需要不停的喊“吃饭吃饭吃饭”就行了,而RISC则要一遍一遍重复吃饭流程,负责喊话的人如果嘴巴不够快(即内存带宽不够大),那么RISC就很难吃的过CISC。
但是如果我们只是要两个人把饭舀出来,那么CISC就麻烦得多,因为CISC里没有这么简单的舀饭动作,而RISC就只需要不停喊“舀饭舀饭舀饭”就OK。
这就是CISC和RISC之间的区别。
但是在实际情况中问题要比这复杂许许多多,因为各个阵营的设计者都想要提升自家架构的性能。
这里面最普遍的就是所谓的“发射”概念。
什么叫发射?发射就是同时可以执行多少指令的意思,例如双发射就意味着CPU可以同时拾取两条指令,三发射则自然就是三条了。
现代高级处理器已经很少有单发射的实现,例如Cortex A8和A9都是双发射的RISC,而Cortex A15则是三发射。
ATOM是双发射CISC,Core系列甚至做到了四发射——这个方面大家倒是不相上下,但是不要忘了CISC的指令更加复杂,也就意味着指令更
加强大,还是吃饭的例子,CISC只需要1个指令,而RISC需要5个,那么在内存带宽相同的情况下,CISC能达到的性能是要超过RISC的(就吃饭而言是5倍),而实际中CISC的Core i处理器内存带宽已经超过了100GB/s,而ARM还在为10GB/s而苦苦奋斗,一个更加吃带宽的架构,带宽却只有别人的十分之一,性能自然会受到非常大的制约。
为什么说ARM和X86不好比,这也是很重要的一个原因,因为不同的应用对带宽需求是不同的。
一旦遇到带宽瓶颈,哪怕ARM处理器已经达到了很高的运算性能,实际上根本发挥不出来,自然也就会落败了。
说到这儿大家应该也已经明白CISC和RISC的区别和特色了。
简而言之,CISC实际上是以增加处理器本身复杂度作为代价,去换取更高的性能,而RISC则是将复杂度交给了编译器,牺牲了程序大小和指令带宽,换取了简单和低功耗的硬件实现。
但如果事情就这样发展下去,为了提升性能,CISC的处理器将越来越大,而RISC需要的内存带宽则会突破天际,这都是受到技术限制的。
所以进十多年来,关于CISC和RISC的区分已经慢慢的在模糊,例如自P6体系(即Pentium Pro)以来,作为CISC 代表的X86架构引入了微码概念,与此对应的,处理器内部也增加了所谓的译码器,负责将传统的CISC指令“拆包”为更加短小的微码(uOPs)。
一条CISC指令进来以后,会被译码器拆分为数量不等的微码,然后送入处理器的执行管线——这实际上可以理解为RISC内核+CISC解码器。
而RISC也引入了指令集这个
就逻辑角度而言非常不精简的东西,来增加运算性能。
正常而言,一条X86指令会被拆解为2~4个uOPs,平均来看就是3个,因此同样的指令密度下,目前X86的实际指令执行能力应该大约是ARM的3倍左右。
不过不要忘了这是基于“同样指令密度”下的一个假设,实际上X86可以达到的指令密度是十倍甚至百倍于ARM的。
最后一个需要考虑的地方就是指令集。
这个东西的引入,是为了加速处理器在某些特定应用上性能而设计的,已经有了几十年的历史了。
而实际上在目前的应用环境内,起到决定作用的很多时候是指令集而不是CPU核心。
X86架构的强大,很多时候也源于指令集的强大,比如我们知道的ATOM,虽然它的X86核心非常羸弱,但是由于它支持SSE3,在很多时候性能甚至可以超过核心性能远远强大于它的Pentium M,这就是指令集的威力。
目前X86指令集已经从MMX,发展到了SSE,AVX,而ARM依然还只有简单而基础的NEON。
它们之间不成比例的差距造成了实际应用中成百上千倍的性能落差,例如即便是现今最强大的ARM内核依然还在为软解1080p H.264而奋斗,但一颗普通的中端Core i处理器却可以用接近十倍播放速度的速度去压缩1080p H.264视频。
至少在这点上,说PC处理器的性能百倍于ARM是无可辩驳的,而实际中这样的例子比比皆是。
这也是为什么我在之前说平均下来ARM只有X86几十分之一的性能的原因。
打了这么多字,其实就是为了说明一点,虽然现在ARM 很强大,但它距离X86还是非常遥远,并没有因为这几年的进步而缩短,实际上反而在被更快的拉大。
毕竟它们设计的出发点不一样,因此根本不具备多少可比性,X86无法做到ARM的功耗,而ARM也无法做到X86的性能。
这也是为什么ATOM一直以来都不成功的原因所在——Intel试图用自己的短处去和别人的长处对抗,结果自然是不太好的,要不是Intel拥有这个星球上最先进的半导体工艺,ATOM根本都不可能出现。
而ARM如果尝试去和X86拼性能,那结果自然也好不到哪儿去,原因刚刚也解释过了。
不过这也不意味着ARM以后就只能占据低端,毕竟任何架构都有其优点,一旦有应用针对其进行优化,那么就可以扬长避短。
X86的繁荣也正是因为整个世界的资源都针对它进行了优化所致。
只要能为ARM找到合适的应用与适合的领域,未来ARM也未必不可以进入更高的层次。