显卡工作过程

显卡工作过程
显卡工作过程

首先

咱们先假设显卡是个画画的画匠吧

给画匠分配任务的当然是咱们的PROGRAMS(程序)

但是程序的命令是给整个硬件系统听的,不是只交代你显卡

那怎么让显卡知道这一堆命令中哪些是需要自己执行的呢

那当然得通过一个中间代理机构进行分配拉

这就是我们的OS(操作系统)

首先程序发送命令被操作系统分析为C+/BASIC/宏等程序

其中一部分被识别为CPU可识别的指令集

一部分被识别为DX/OPENGL等API集(什么是API呢,大家可以理解成这就是显卡这个画家曾经学过的一种绘画技巧,程序知道显卡会这些绘画技巧,就照此分配显卡的绘画任务,当OS分析出这些需要绘画技巧的支持时就通知显卡进行处理,绘画技巧关系到显卡画出画面的素质,显卡可以画出哪些效果,以及显卡画画的效率_从指令的执行效率来说)可以支持的指令

当显卡的API可以支持的指令被分析出的时候,OS将其交给驱动,驱动将之进一步编译为2进制的0/1代码(因为操作系统和显卡不是一个国家的人,显卡只知道2进制度语言,而操作系统之表层仅了解的是数据库语言和C+/BASIC等简单指令语言) 终于显卡知道自己改干啥了

那么接下来动手吧

构思的过程

与人一样

显卡做画需要先构思

它做画的基本单位是桢

比如说显卡每秒生成画面60桢

就相当于一个画家一秒画了60副画(人类画家可没这速度,汗)

显卡是在哪里做画的呢,它在它的桢缓冲与流水线之间做画

怎么同时在两个地方做画呢

复杂的解释就是显卡先在流水线做好画的一部分,赶紧送到桢缓冲里,然后继续做下一部分,最后所有的部分就在桢缓冲里合成为完整的画面

有点抽象吗

其实你可以这么理解:就是画家用一个超级复写纸(流水线)覆盖在他的画纸(桢缓冲)上

那么显卡画家在复写纸上做好画时,在画纸上也出现了一副画面

(其实这个理解不是很准确,不过大概是这个意思,当然显卡不是通过这种复制的方式把画面送给桢缓冲的)

不过以上是做画的过程

画家必须先想好怎么画

在从驱动那收集来的API转换成的2进制指令中,有一部分是要求显卡进行一些数学计算的

比如计算一个光线在光源发生位移的情况下,自身要怎么变化,以及环境里因为这个光而产生的相对的阴影是如何变化的

显卡不仅画画好,数学也学的好,别看它大脑(GPU)的核心频率不如主流的CPU高,但是它的大脑很高效哦!算起这些数学里比CPU快的多

不只是光影效果

一些顶点的位移表现也要让显卡自己来计算

什么是顶点呢

我们知道画家画画的时候一般要先画出物体的轮廓后方才更加细致的描绘

显卡也是如此

它需要先画出轮廓

它画轮廓的方式先画出轮廓上的顶点(这就好象小时候学数学里,正方体有8个顶点一样)然后把顶点连线起来,就成了一个完整的物体的轮廓了,

不过显卡只知道把三角形(2D)/三角体进行连线,只能画出一堆三角的轮廓

不过三角这种东西具有很大的可塑性,靠它们可以无限组合出更多的立体感强的物质

而游戏中的物体始终是在运动的

顶点的位置也将不断变化

这个位移的过程需要显卡进行计算

这就是顶点拾取

与顶点识趣概念相对的还有个纹理拾取

这也是需要显卡去数学计算的

这也是为了确定纹理的位置

我们知道,显卡在画完轮廓以后需要描绘细节

比如画一个人,画完了身体的轮廓,接着就要画皮肤了

那皮肤是什么呢

对就叫纹理

纹理是怎么固定到这个活动中的轮廓上呢

原来显卡做画的时候给轮廓上每个需要经常参与活动/变形的顶点坐了标记

再把纹理直接钉在这些顶点上!

也就成了顶点纹理

顶点一动,纹理也要相对的发生变化

那么顶点与纹理相对位置的变化关系,就是顶点纹理拾取的功能所在了

所以以后有人说起什么是顶点纹理拾取

你可以告诉他

那是为了让你的纹理可以和你的建模一起动!

进行了所有的数学计算以后

确定了顶点的坐标

然后又按着坐标绘制出轮廓,再把纹理钉到了轮廓中的顶点上

这就把画面的皮给作好了

在这个过程中

纹理的绘制过程

又是这样的

首先

从驱动那里收集内的API信息里也包括了一些内存地址(任务程序,硬件的操作都会占用一定的缓存,缓存包括显存,内存,及时可写性,与非及时可写性,易失性与非易失性等多中,不过它们有个共同特征,就是它们存储介质的基本单位都可以用"地址"来定位,你要往它们里面读或者写东西,请先给出一个地址,他们从这些地址里找到一个区域内专门给你读与写)

这些内存地址正式隐藏在游戏程序中的以0/1数字所表示着的纹理!(甚至你打开一些游戏的安装文件夹,你直接就可以看到一个叫TEXTURE的文件夹,那就是存放纹理的数据化信息的地方)

这些内存地址通过显卡大核心大脑,在那里有个显存控制器的小玩意,他看到这些东西,明白这是内存地址

于是呼唤出显卡画家的仓库助手显存小弟出面到内存那里要纹理数据

显存拿着内存地址来到内存那,按地址一个个点名要走了已经事先被从硬盘里提到内存中的纹理数据(因为纹理有一个过程是存放在内存里的,所以纹理越大也越吃内存)拿回的数据先存放在显存的大仓库里

只要显卡画家一需要,就会为其送上

显存为显卡画家送纹理等信息的通道的宽度我们可以叫它显存位宽

这路越宽,当然送纹理什么的也就更通畅,不容易堵车,速度也就快了,而运输这些纹理的时候的速度(比如用车运输纹理就是指车的时速了)越快,自然纹理也就可以更快的输送到核心那里

如果显卡画家要纹理了

你还不把纹理送过去

人家没东西可以往轮廓模型上贴,就必须在那等待你,导致画家画画的速度就慢了(被显存拖累了)

所以显存的速度也很重要哦!

画完了纹理

没颜色,没特效怎么行呀?

接下来就是象素渲染了

在前期我们提到光影是需要数学计算的

在象素处理的阶段,按照前期数学计算的结果进行光影渲染的处理

不仅是光影

模糊效果,HDR等都属于象素渲染的范畴

显卡画家用来渲染象素的那种手我们就叫他渲染单元吧

这手越多啊,画画速度自然就越快拉

不仅是象素渲染的手

还有纹理渲染的手(纹理渲染单元)

以及顶点渲染的手呢(顶点渲染单元)

不过显卡画家在学会DX10绘画技术以前

他很"穷"

穷到那么多手只有几个袖子

比如画家6800GT先生

他是16只袖子

每个袖子里有一个纹理渲染的手和一个象素渲染的手

然后顶点渲染的手有一定的几率挤在一些已经有两只手的袖子里

如果画家先生残疾了

医生要给他截肢

你猜怎么样?

不是砍掉一只手

而是一只袖子!

那么就可能有两只手没了

所以7900GS先生被砍掉四只袖子以后,少了八只手(四个象素渲染单元和四个纹理渲染单元没了),而且不幸的是因为有一只顶点渲染的手混在袖子里也被砍掉了

于是7900GS先生就剩下20个袖子和7个顶点渲染的手了(原来有8个)

这就是为什么有些显卡被阉割后不仅少管线还少顶点的原因了

因为顶点是与管线随机封装在一起的

最后这画总算是做好了呀~~~~~~~~~~

奇怪

怎么边缘有些锯齿呢

哦~~~~~~~~~~~

原来是那些作画的复写纸不好,在从流水线复写到桢缓冲的过程里丢了几个三角形

如果是边缘的三角形丢了,看起来不就有锯齿了吗(这里大家想象一下就明白了)

不怕,因为程序有要求我给三角形上的顶点做笔记呢

显卡有多种做笔记记录顶点位置的方式

以前呢

所有的点,管你在不在边缘,我都给你做笔记,一个都不许少(这叫SSAA)!

好家伙,工作量大啊,于是画家话画画慢了

不过这样锯齿就不那么容易出现了

后来呢,学聪明了

咱只记录边缘的!,边缘的那些顶点呢,咱们记下他们的位置

然后还原的时候呢,如果发现哪个顶点不见了,就补上,使三角形重新形成,锯齿就少了(MSAA)

但是3D的世界是立体的

一个物体第一层表面的锯齿可以被记下来

如果在透视视角中,一个物体处在另一个物体的可见部分的中心怎么办呢

比如显卡画家画出一副画,在一个铁丝网中间的缝隙里看到一些建筑物

过去显卡画家只会给这些铁丝网的边缘进行处理,可是会忘记给那里面的建筑物也进行处理,结果那些透过缝隙看到的建筑物还是锯齿很明显的

后来有了CSAA

显卡画家就会对一个3D世界的纵向角度上的模型边缘的点都进行记录,要是实在不知道哪些是在边缘的还会索性象SSAA 一样全都记录

于是就还原了一个完整少锯齿的3D世界

那么顶点在边缘丢了,少了三角形而出现锯齿

那在中央部分丢了呢

那画面就会模糊了(由于中央的顶点丢失了,而被渲染着色到这个顶点的象素也失去了与周围象素的区别性,变的大家都一样了,于是远看起来成一大色块,画面就模糊了)....于是显卡画家有时候也按照程序需求对中央丢失的点进行记录采样的处理

这样的处理是线性的

画家会按照中央顶点之间的线性变化关系进行采样(关于线性这个涉及到一些函数数学,大家不懂就算了)

一般来说三线性的采样比双线性采样的顶点更多,自然效果更好

而后来画家还学会了各项异性采样

与线性采样不同的是

各向异性采样不必遵循线性的套路

他是对中央某个顶点周围各方向的顶点关系进行记录

一旦关系发生了变化,显卡画家注意到了,就会在这个关系丢失的环节补上顶点

比如2X的各向异性就是记录周围两个随机方向的点与这个顶点的关系

而16X则要记录周围16个点(方向也是随机的,但绝不重合)

16X记录的关系复杂,顶点多,自然效果更好

其实我们说显卡做画,都是不准确的

他不如说是一个雕塑家在做一个雕塑

但是我们所能在显示器上看到的,永远只会是一个平面2D的图象(除非你能从显示器左边90度看见画面的细节,或者在显示器背面看见画面的背面)

所谓的及时3D也不过指的是做画的过程是3D的

实际上显卡画家明白

因为是2D图象

所以我们看到的图象中实际只有他所雕塑的塑像的一个层面而已

很多部分是看不完全的,为了不做无用功

显卡画家动用了隐面消除技术

也就是一些让画家预先计算到哪些面我们看不见的技术

原来在程序提供给显卡的API中

曾经为最终形成的每个象素都定义过它的Z轴的深度

学过函数大家就知道

Z轴是表示坐标轴深度的

而著名的隐面消除技术Z-BUFFER会根据这些象素所定义的Z轴深度,把象素Z轴上不会显示的面给消除掉,

Z轴消除的位数越高,那么就反而呈现越复杂的Z轴层面

这可能(只是可能)会表现出很强的立体感,但也因为有些根本不会看到的隐藏面被渲染,导致画家画画慢了下来

显卡供电电路和工作原理

显卡供电电路和工作原理 1、从PCI bus进入GPU将CPU送来的数据送到GPU里面进行处理。 2、从GPU进入显存将芯片处理完的数据送到显存。 3、从显存进入DAC由显存读取出数据再送到RAMDAC(随机读写存储数模转换器),RAMDAC的作用是将数字信号转换成模拟信号。 4、从DAC进入显示器将转换完的模拟信号送到显示屏。下面扯显卡的供电电路。绝大多数显卡是由主板上的AGP/pcie插槽供电的,没有电池来供应所需的工作电能,而是由显卡上的金手指通过主板的插槽和电源的+12V6pin接口等来获得所需的电量。原本打算把AGP插槽的供电定义发上来,但考虑到已经不合实际情况,故作罢。PCIE插槽的定义:靠近CPU的那一组触点为A组,对面为B组,由主板的I/O芯片往南桥方向数,每一边各有82个触点。+12V供电:A2,A3,B1,B2,B3 + 3、3V:A9,A10,B8+ 3、3Vaux:B10PCIE显卡没有+5V供电。显卡的供电无论是通过主板进入,还会是直接外接电源进入,都不可能正好符合显卡各种芯片正常工作的电压值。超过频的都知道,GPU的核心供电是 0、9~ 1、6V,显存供电是

1、5~ 3、3V,接口部分有的需要 3、3v,有的需要+5V,各不相同,于是这就涉及到显卡上直流电源模块设计的问题。直流电源模块的基本工作原理:无论输入端的电压怎么变化,它都能输出一个相对稳定的预先设计的较为平滑的电压值,并可以带动一定的负载。显卡上的直流电源供电模块主要有三大类:三端稳压;场效应管线性降压和开关电源稳压方式。他们的工作模式都是采取降压工作模式,即输出电压总是低于输入电压。 1、三端稳压供电方式这是显卡中相对较简单的一种供电方式,采用的集成电路主要有1117,7805等。这种方式虽然较简单,但是提供的电流很小。一般DAC电路和接口部分的电路供电采用这种方式。 下载 ( 94、46 KB)xx-11-2316:55图上这玩意儿就是7805,1脚输入,2脚接地,3脚输出的电压即为5V。箭头方向从右往左分别为1,2,3脚。 2、场效应管线性降压方式一般低端显卡的显存供电采用MOS 管线性降压供电方式。N沟道MOS管特性:G极电压越高,DS导通程度越强。不同MOS管的具体引脚数据可以通过型号查阅相关PDF 得到。下载 (

显卡结构及工作原理详细解读

什么是显卡? 显卡的工作非常复杂,但其原理和部件很容易理解。在本文中,我们先来了解显卡的基本部件和它们的作用。此外,我们还将考察那些共同发挥作用以使显卡能够快速、高效工作的因素。 显示卡(videocard)是系统必备的装置,它负责将CPU送来的影像资料(data)处理成显示器(monitor)可以了解的格式,再送到显示屏(screen)上形成影像。它是我们从电脑获取资讯最重要的管道。因此显示卡及显示器是电脑最重要的部份之一。我们在监视器上看到的图像是由很多个小点组成的,这些小点称为“像素”。在最常用的分辨率设置下,屏幕显示一百多万个像素,电脑必须决定如何处理每个像素,以便生成图像。为此,它需要一位“翻译”,负责从CPU获得二进制数据,然后将这些数据转换成人眼可以看到的图像。除非电脑的主板内置了图形功能,否则这一转换是在显卡上进行的。我们都知道,计算机是二进制的,也就是0和1,但是总不见的直接在显示器上输出0和1,所以就有了显卡,将这些0和1转换成图像显示出来。 显卡的基本原理

显卡的主要部件是:主板连接设备、监视器连接设备、处理器和内存。不同显卡的工作原理基本相同CPU与软件应用程序协同工作,以便将有关图像的信息发送到显卡。显卡决定如何使用屏幕上的像素来生成图像。之后,它通过线缆将这些信息发送到监视器。 显卡的演变自从IBM于1981年推出第一块显卡以来,显卡已经有了很大改进。第一块显卡称为单色显示适配器(MDA),只能在黑色屏幕上显示绿色或白色文本。而现在,新型显卡的最低标准是视频图形阵列(VGA),它能显示256种颜色。通过像量子扩展图矩阵(QuantumExtendedGraphicsArray,QXGA)这样的高性能标准,显卡可以在最高达2040x1536像素的分辨率下显示数百万种颜色。 根据二进制数据生成图像是一个很费力的过程。为了生成三维图像,显卡首先要用直线创建一个线框。然后,它对图像进行光栅化处理(填充剩余的像素)。此外,显卡还需添加明暗光线、纹理和颜色。对于快节奏的游戏,电脑每秒钟必须执行此过程约60次。如果没有显卡来执行必要的计算,则电脑将无法承担如此大的工作负荷。 显卡工作的四个主要部件 显卡在完成工作的时候主要靠四个部件协调来完成工作,主板连接设备,用于传输数据和供电,处理器用于决定如何处理屏幕上的每个像素,内存用于存放有关每个像素的信息以及暂时存储已完成的图像,监视器连接设备便于我们查看最终结果。 处理器和内存 像主板一样,显卡也是装有处理器和RAM的印刷电路板。此外,它还具有输入/输出系统(BIOS)芯片,该芯片用于存储显卡的设置以及在启动时对内存、输入和输出执行诊断。显卡的处理器称为图形处理单元(GPU),它与电脑的CPU类似。但是,GPU是专为执行复杂的数学和几何计算而设计的,这些计算是图形渲染所必需的。某些最快速的GPU所具有的晶体管数甚至超过了普通CPU。GPU会产生大量热量,所以它的上方通常安装有散热器或风扇。

显卡教材每章测试题

一.显卡发展史测试试题 学校班级得分 一、填空题(30分,每空1分)。 1.显卡(Video Card,Graphics Card)又叫显示卡,显示适配卡或 者叫显示接口卡,是PC机上最基本也是最重要的设备之一,它负责把电脑处理好的信号通过加工后输出到显示器上展现给终端用户。 2.显卡总线的发展经历了从ISA总线接口→PCI总线接口→AGP总 线接口→PCI E总线接口的四个阶段。 3.ISA总线其实是8/16bit的系统总线,最大传输速率仅为8MB/S, 但它允许多个CPU共享系统资源,由于兼容性好,它在上个世纪80年代是最广泛被采用的系统总线。 4.1992年Intel在发布486处理器的时候,也同时提出了32 biT的 PCI总线。 5.AGP 1.0规中1X的模式带宽是266MB/S,理论上是PCI总线的两 倍。2X模式下传输速率达到533MB/S。AGP 2.0规下,4X模式传输速率达到1064MB/S,到了AGP 3.0规的时候,即8X的模式传输速度已达了2.1GB/S。 6.显卡Chipset的发展比较有影响的是SIS、S3﹑ATI、和NVIDIA 等。 7.史上十大成功的民用系列显卡是Trident 9000、S3 765、S3 765、 nVIDIA Riva TNT系列、Matrox G400、nVIDIA GeForce256、

ATi Radeon 8500、nVIDIA GeForce4 Ti、ATi Radeon 9800系列、nVIDIA GeForce 6600系列。 8.Radeon 7500是ATI公司生产的芯片,ATi异军突起:携Radeon 7500叫嚣nVIDIA。 9.NVIDIA公司的显卡芯片系列有TNT 、TNT2、Geforce系列的 显卡。 10.SIS科技研发生产的显示芯片主要有:SIS 300、SIS 315、SIS 350、 Xabre 400、Xabre 600、SIS 630 等芯片生产。 11.PCI E总线即PCI Express总线,是第三代输入/输出总线,是Intel 在2001年的春季IDF大会上正式公布的,在显示卡的应用方面PCI Express 总线插槽是以X16的模式出现的。 12.ISA总线接口的显卡和PCI总线接口的显示卡现在已经淘汰了, 目前市场上主要的显卡是AGP总线接口的显卡和PCI E总线接口的显卡。 13.在显卡芯片市场上,ATI与NVIDIA公司的竞争十分激烈,他们 相当的芯片是,在低端竞争中是GeForce 6200系列Vs X300系列,中端竞争中GeForce 6600系列VSX700系列,高端竞争中GeForce 6800系列与X800系列。 14.电脑的周边板卡和设备主要有显卡、声卡、MODEM卡、硬盘、 显示器等等。

A卡-N卡 GPU架构解析

SIMD架构示意图 一个矢量就是N个标量,一般来说绝大多数图形指令中N=4。所以,GPU的ALU指令发射端只有一个,但却可以同时运算4个通道的数据,这就是SIMD(Single Instruction Multiple Data,单指令多数据流)架构。 ● “管线”弊端越发明显,引入混合型设计 显然,SIMD架构能够有效提升GPU的矢量处理性能,由于顶点和像素的绝大部分运算都是4D Vector,它只需要一个指令端口就能在单周期内完成4倍运算量,效率达到100%。但是4D SIMD架构一旦遇到1D标量指令时,效率就会下降到原来的1/4,3/4的模块被完全浪费。为了缓解这个问题,ATI和NVIDIA在进入DX9时代后相继采用混合型设计,比如R300就采用了3D+1D的架构,允许Co-issue操作(矢量指令和标量指令可以并行执行),NV40以后的GPU支持2D+2D和3D+1D两种模式,虽然很大程度上缓解了标量指令执行效率低下的问题,但依然无法最大限度的发挥ALU运算能力,尤其是一旦遇上分支预测的情况,SIMD在矢量处理方面高效能的优势将会被损失殆尽。

G8X家族核心架构图 如此一来,对于依然占据主流的4D矢量操作来说,G80需要让1个流处理器在4个周期内才能完成,或者是调动4个流处理器在1个周期内完成,那么G80的执行效率岂不是很低?没错,所以NVIDIA大幅提升了流处理器工作频率(两倍于核心频率),扩充了流处理器的规模(128个),这样G80的128个标量流处理器的运算能力就基本相当于传统的64个(128×2/4)4D矢量ALU。 G8X/G9X系列:8个流处理器为一组,2x8=16个为一簇

认识显卡!浅析显卡及显卡工作原理

纵观计算机诞生到如今所度过的60年时间我们不难发现计算机的发展速度是非常惊人的,很多网友会发现自己在一两年之前买的电脑到此时可能已经到了面临过时的境地。伴随着计算机高速发展所带给我们的是计算机硬件制造工艺地不断提升、性能的突飞猛进和更加节能环保的设计。但是不论计算机技术如何发展都离不开构成计算机所必须的几大硬件,就拿显卡来说,经过多年的发展显卡已经越来越受到人们的关注,而直接关系到显卡性能的显示核心GPU也第一次到达和CPU同样重要的位置。目前AMD和NV分别发布了自己最高端的HD 4870 X2和GTX295显卡,这两张卡虽然代表了目前显卡的最高水平,但是无论它们如何高端,其工作原理和发展基础都是在显卡的基本原理上发展而来的。显卡技术虽然在不断地发展,但是了解显卡的基本知识与工作原理相信无论是对于我们对显卡的清晰认识还是对今后购买显卡都有一定的帮助,为此我们PConline就为大家准备了一篇有关显卡与显卡工作原理有关的文章供大家参考。 什么是显卡? 显卡的工作非常复杂,但其原理和部件很容易理解。在本文中,我们先来了解显卡的基本部件和它们的作用。此外,我们还将考察那些共同发挥作用以使显卡能够快速、高效工作的因素。

显示卡(videocard)是系统必备的装置,它负责将 CPU 送来的影像资料(data)处理成显示器(monitor) 可以了解的格式,再送到显示屏 (screen) 上形成影像。它是我们从电脑获取资讯最重要的管道。因此显示卡及显示器是电脑最重要的部份之一。我们在监视器上看到的图像是由很多个小点组成的,这些小点称为“像素”。在最常用的分辨率设置下,屏幕显示一百多万个像素,电脑必须决定如何处理每个像素,以便生成图像。为此,它需要一位“翻译”,负责从CPU获得二进制数据,然后将这些数据转换成人眼可以看到的图像。除非电脑的主板内置了图形功能,否则这一转换是在显卡上进行的。我们都知道,计算机是二进制的,也就是0和1,但是总不见的直接在显示器上输出0和1,所以就有了显卡,将这些0和1转换成图像显示出来。 显卡的基本原理

显卡做工详细讲解

显卡做工详细讲解 (2005-08-22 09:43:19) 如果仅仅还是10年前,因为价格的理由你去选择杂牌配件,那还是非常值得理解的,毕竟那时电脑配件价格昂贵,组装一台电脑的价格动辄万元。名牌和杂牌配件的差距会达数百元之多,在提前享受高科技产物,还是继续攒钱眼巴巴的等待面前,很多消费者选择了前者,因为超前的享受可以换来更早的接触与学习电脑的机会。 更多DIY的目光已经转向品质以及外形设计 时间飞转到了现在,电脑早就不是什么新鲜事物了,很多用户已经购买了第二、第三台电脑,笔记本、准系统也纷纷进入家庭。虽然电脑价格相比以前有了大幅度的下降,但是对于普通用户来说他们的消费水平有限,购买电脑仍算是一笔大投入,所以DIY组装是很多用户的选择。 同使用一种芯片,做工不同的显卡差价巨大 虽然仍然是选择DIY组装电脑,但用户的消费理念较以前已有很大的转变,注重品牌和品质的消费者越来越多,毕竟一分钱一分货,品牌叫得响、品质有保证的产品成为很多人的首选。在DIY市场上显卡仍然是最为火热的焦点,今天我们的话题还是聚焦在显卡上。

显卡是在所有配件中公认受DIY的关注度最高,目前市场上的各种显卡品牌和型号琳琅满目数不胜数,而显卡产品不像其他配件,能从外观简单的一眼看穿是优是劣,这一点可以说令很多消费者在挑选显卡时无所适从。 显卡是DIY配件中最活跃分子,淡及做工引起的争论也最大 特别是对于采用同一芯片的不同品牌和型号的显卡,有时有很大的差价。用户想知道如果多花钱到底能买到了什么?便宜显卡是否有偷工减料?其实剔除用户能直接区分的品牌与服务的因素,剩下的就是显卡的做工与用料上的差别。 下文我们就将详细的来看一下显卡做工的方方面面,另外我们通过大量的图片展示让用户明白哪些是低品质的缩水产品,而哪些又是品质优良的产品,并且最终让消费者掌握一定的技巧,可以在购买的时候快速辨别一款做工和用料出色的显卡。 偷工减料的事情最容易发生在拿一类的显卡上呢?答案不是单卡利润丰厚的高端显卡,而是销售量很大的低端显卡。 ○ 偷工减料,低端显卡严重 高端显卡因为生产要求比较高,所以基本上只有极少极具实力的大厂才有能力对高端显卡进行少量的修改,比如PCB电路等方面,大多数中下游的厂商根本不会轻易随便改动。相反低端显卡的电气性能要求不高,可以改动的余地则比较大。

显卡工作原理

显卡工作原理 显卡工作原理 首先我们应该了解一下显卡的简单工作原理:首先,由CPU 送来的数据会 通过AGP 或PCI-E 总线,进入显卡的图形芯片(即我们常说的GPU 或VPU)里 进行处理。当芯片处理完后,相关数据会被运送到显存里暂时储存。然后数字 图像数据会被送入RA 骂死我吧AC(Random Access Memory Digital Analog Converter),即随机存储数字模拟转换器,转换成计算机显示需要的模拟数据。 最后RA 骂死我吧AC 再将转换完的类比数据送到显示器成为我们所看到的图 像。在该过程中,图形芯片对数据处理的快慢以及显存的数据传输带宽都会对 显卡性能有明显影响。 技术参数和架构解析 一、核心架构: 我们经常会在显卡文章中看到8 乘以1 架构、4 乘以2 架构这样的字样,它 们代表了什么意思呢?8 乘以1 架构代表显卡的图形核心具有8 条像素渲染管线,每条管线具有1 个纹理贴图单元;而4 乘以2 架构则是指显卡图形核心具有4 条 像素渲染管线,每条管线具有2 个纹理贴图单元。也就是说在一个时钟周期内,8 乘以1 架构可以完成8 个像素渲染和8 个纹理贴图;而4 乘以2 架构可以完成 4 个像素渲染和8 个纹理贴图。从实际游戏效果来看,这两者在相同工作频率 下性能非常相近,所以常被放在一起讨论。 举例来说,nVIDIA 在发布GeForce FX 5800 Ultra 的时候,对于其体系架构就没有给出详尽说明。后来人们发现官方文档中提到的每个周期处理8 个像素 的说法,只是指的Z/stencil 像素,其核心架构可以看作是GeForce4 Ti 系列4 乘以2 架构的改进版本,其后发布的GeForce FX 5900 系列也是如此。ATi 的

NVIDIAOptimus智能显卡切换技术全解析

NVIDIA Optimus智能显卡切换技术全解析 紫雷《微型计算机》 2010年3月下期2010-04-09 这种显卡切换技术无需手动开关和重启电脑; 它修正了可切换显卡技术之前存在的诸多问题; 它既节能,又能保证性能; 它就是NVIDIA新近推出的智能显卡切换技术—Optimus。 解析—Optimus是什么 Optimus技术是NVIDIA新推出的一项智能化多显卡切换技术,它能够根据程序的运行状况与图形任务负载,灵活地在集成显卡与独立显卡之间切换。其主要的特色在于: 第一,无需手动干预,显卡的切换完全根据实际程序运行状况自动进行,当你浏览网页时用集显,玩游戏时则自动切换到独显;

第二,切换过程无缝实现,无需退出程序,无需重启笔记本电脑;第三,实现了性能与节能的双效目标。 可切换显卡技术的目的不言而喻——自然是为了在性能与节能之间做到最好的平衡。当今的笔记本电脑应用多元化需求的趋势已经日益明显,消费者不但要求笔记本电脑具有相当的电池续航时间,以便外出携带使用,而且还要求笔记本电脑具有不错的性能,以应付3 D游戏、视频压缩以及渐入佳境的高清视频播放需求。性能与节能,一直以来都是笔记本电脑产品上几乎不可调和的对立面,各大厂商为此也是花招百出。而显卡的可切换技术的出现,也正是消费者对笔记本电脑性能与节能双向要求的最直接体现——在某些时候,需要使用独立显卡运行3D游戏和高清视频播放等,而更多时候,只需要集成显卡来进行网页浏览、办公等简单任务,以达到延长电池使用时间的目的。 Optimus并不是首个出现的显卡可切换技术,为什么它却受到了很大的关注呢?或许通过回顾笔记本电脑可切换显卡技术的发展历程,我们能从中知晓原因。 显卡冷启动切换 大约在2006年左右,伴随SONY VAIO SZ的发布,带来了一项吸引眼球的技术——集显与独显的切换技术,本刊当时也在第一时间对这款产品进行了评测。读者一定还记得VAIO SZ C面上的“Stamina”(电池时间)与“Speed”(性能)拨动按钮吧。拨到“Stamina”可获得更长的电池续航时间(使用集显),而在“Speed”模式下则可获得更高的性能(独显)。不过,这一技术在当时也被一些人看作是噱头——要切换显卡,必须得重启电脑方可完成。 哪为什么SZ需要重启?因为在操作系统下切换按钮之后,系统与显卡驱动程序并未接收到这一指令。这种纯硬件层面的切换直接由系统BIOS负责管理,因此必须要重启电脑之后,BIOS才能正确识别你想用的是独显,还是集显。操作上的麻烦程度也因此而凸显。 不过,通过SZ的面世,我们看到了厂商为解决性能与节能这两个矛盾而做出的努力,也算是显卡可切换技术第一次有益的尝试。 显卡热切换 2007年,NVIDIA带来了Switchable Graphics(Hybrid Power)技术,这算显卡可切换技术的第二次有益尝试,相比之前的冷启动切换时代,有了长足的进步。

GPU工作原理简介

GPU工作原理简介 计算机0601 沈凯杰 【引言】 在GPU出现以前,显卡和CPU的关系有点像“主仆”,简单地说这时的显卡就是画笔,根据各种有CPU发出的指令和数据进行着色,材质的填充、渲染、输出等。 较早的娱乐用的3D显卡又称“3D加速卡”,由于大部分坐标处理的工作及光影特效需要由CPU亲自处理,占用了CPU太多的运算时间,从而造成整体画面不能非常流畅地表现出来。 例如,渲染一个复杂的三维场景,需要在一秒内处理几千万个三角形顶点和光栅化几十亿的像素。早期的3D游戏,显卡只是为屏幕上显示像素提供一个缓存,所有的图形处理都是由CPU单独完成。图形渲染适合并行处理,擅长于执行串行工作的CPU实际上难以胜任这项任务。所以,那时在PC上实时生成的三维图像都很粗糙。不过在某种意义上,当时的图形绘制倒是完全可编程的,只是由CPU来担纲此项重任,速度上实在是达不到要求。 随着时间的推移,CPU进行各种光影运算的速度变得越来越无法满足游戏开发商的要求,更多多边形以及特效的应用榨干了几乎所有的CPU性能,矛盾产生了······ 【目录】 第一章.GPU的诞生 3.1 GPU中数据的处理流程 3.2 CPU与GPU的数据处理关系 3.3 传统GPU指令的执行 3.4 GPU的多线程及并行计算 3.4.1 多线程机制 3.4.2 并行计算 第二章.GPU的结构 第三章.GPU的工作原理 第四章.GPU未来的展望 4.1 GPU能否包办一切 4.2 GPU时代即将到来 【正文】 第一章.GPU的诞生 NVIDIA公司在1999年8月31日发布GeForce 256图形处理芯片时首先提出GPU的概念。 GPU之所以被称为图形处理器,最主要的原因是因为它可以进行几乎全部与计算机图形有关的数据运算,而这些在过去是CPU的专利。 目前,计算机图形学正处于前所未有的发展时期。近年来,GPU技术以令人惊异的速度在发展。渲染速率每6个月就翻一番。性能自99年,5年来翻番了10次,也就是(2的10次方比2)提高了上千倍!与此同时,不仅性能得到了提高,计算质量和图形编程的灵活性也逐渐得以改善。 以前,PC和计算机工作站只有图形加速器,没有图形处理器(GPU),而图形加速器只能简单的加速图形渲染。而GPU取代了图形加速器之后,我们就应该摒弃图形加速器的旧观念。 第二章.GPU的结构

关于显卡的名词解释

AGP AGP英文全称是Accelerate Graphical Port,这是Intel公司开发的一项视频接口技术标准。其主要目的是为了解决低带宽的PCI总线对显卡性能的制约。它将显卡与系统主内存连接起来,这样就在CPU和图形处理器之间直接开辟了更快的通道,大大提高了显卡的工作效率。AGP接口技术经历了AGP1.0(AGP1X/2X)、AGP2.0(AGP4X)、AGP3.0(AGP8X)的发展过程。目前最新的AGP8X接口,其理论带宽为2.1Gbit/秒。 1、显卡 又被称为:视频卡、视频适配器、图形卡、图形适配器和显示适配器等等。它是主机与显示器之间连接的“桥梁”,作用是控制电脑的图形输出,负责将CPU送来的的影象数据处理成显示器认识的格式,再送到显示器形成图象。显卡主要由显示芯片(即图形处理芯片Graphic Processing Unit)、显存、数模转换器(RAMDAC)、VGA BIOS、各方面接口等几部分组成。下面会分别介绍到各部分。 2、显示芯片 图形处理芯片,也就是我们常说的GPU(Graphic Processing Unit即图形处理单元)。它是显卡的“大脑”,负责了绝大部分的计算工作,在整个显卡中,GPU负责处理由电脑发来的数据,最终将产生的结果显示在显示器上。显卡所支持的各种3D特效由GPU的性能决定,GPU也就相当于CPU在电脑中的作用,一块显卡采用何种显示芯片便大致决定了该显卡的档次和基本性能,它同时也是2D显示卡和3D显示卡区分的依据。2D显示芯片在处理3D图像和特效时主要依赖CPU的处理能力,这称为“软加速”。而3D显示芯片是将三维图像和特效处理功能集中在显示芯片内,也即所谓的“硬件加速”功能。现在市场上的显卡大多采用nVIDIA和ATI两家公司的图形处理芯片,诸如:NVIDIA FX5200、FX5700、RADEON 9800等等就是显卡图形处理芯片的名称。不过,虽然显示芯片决定了显卡的档次和基本性能,但只有配备合适的显存才能使显卡性能完全发挥出来。 3、显存 全称显示内存,与主板上的内存功能基本一样,显存分为帧缓存和材质缓存,通常它是用来存储显示芯片(组)所处理的数据信息及材质信息。当显示芯片处理完数据后会将数据输送到显存中,然后RAMDAC从显存中读取数据,并将数字信号转换为模拟信号,最后输出到显示屏。所以显存的速度以及带宽直接影响着一块显卡的速度,即使你的显卡图形芯片很强劲,但是如果板载显存达不到要求,无法将处理过的数据即时传送,那么你就无法得到满意的显示效果。显存的容量跟速度直接关系到显卡性能的高低,高速的显卡芯片对显存的容量就相应的更高一些,所以显存的好坏也是衡量显卡的重要指标。要评估一块显存的性能,主要从显存类型、工作频率、封装和显存位宽等方面来分析: 4)显存容量

显卡基础知识

显卡基础知识 显卡基础知识 显卡的工作原理 1.从总线(bus)进入GPU(GraphicsProcessingUnit,图形处理器):将CPU送来的数据送到北桥(主桥)再送到GPU(图形处理器)里 面进行处理。 2.从videochipset(显卡芯片组)进入videoRAM(显存):将芯片 处理完的数据送到显存。 3.从显存进入DigitalAnalogConverter(=RAMDAC,随机读写存 储数—模转换器):从显存读取出数据再送到RAMDAC进行数据转换 的工作(数字信号转模拟信号)。但是如果是DVI接口类型的显卡, 则不需要经过数字信号转模拟信号。而直接输出数字信号。 4.从DAC进入显示器(Monitor):将转换完的模拟信号送到显示屏。 显示效能是系统效能的一部份,其效能的高低由以上四步所决定,它与显示卡的效能(videoperformance)不太一样,如要严格区分, 显示卡的效能应该受中间两步所决定,因为这两步的资料传输都是 在显示卡的内部。第一步是由CPU(运算器和控制器一起组成的计算 机的核心,称为微处理器或中央处理器)进入到显示卡里面, 最后一步是由显示卡直接送资料到显示屏上。 显卡的基本结构 GPU介绍

GPU全称是GraphicProcessingUnit,中文翻译为“图形处理器”。GPU是相对于CPU的一个概念,由于在现代的计算机中(特别 是家用系统,游戏的发烧友)图形的处理变得越来越重要,需要一个 专门的图形核心处理器。NVIDIA公司在发布GeForce256图形处理 芯片时首先提出的.概念。GPU使显卡减少了对CPU的依赖,并进行 部分原本CPU的工作,尤其是在3D图形处理时。GPU所采用的核心 技术有硬件T&L(几何转换和光照处理)、立方环境材质贴图和顶点 混合、纹理压缩和凹凸映射贴图、双重纹理四像素256位渲染引擎等,而硬件T&L技术可以说是GPU的标志。GPU的生产主要由 nVIDIA与AMD两家厂商生产。 显存 显存是显示内存的简称。其主要功能就是暂时储存显示芯片要处理的数据和处理完毕的数据。图形核心的性能愈强,需要的显存也 就越多。以前的显存主要是SDR的,容量也不大。2012年市面上的 显卡大部分采用的是DDR3显存,最新的显卡则采用了性能更为出色 的GDDR5显存。 显卡BIOS 与驱动程序之间的控制程序,另外还储存有显示卡的型号、规格、生产厂家及出厂时间等信息。打开计算机时,通过显示BIOS内的一 段控制程序,将这些信息反馈到屏幕上。早期显示BIOS是固化在ROM中的,不可以修改,而截至2012年底,多数显示卡采用了大容 量的EPROM,即所谓的FlashBIOS,可以通过专用的程序进行改写或 升级。 显卡PCB板 就是显卡的电路板,它把显卡上的各个部件连接起来。功能类似主板。 显卡的分类 一、集成显卡

DVR的结构解析以及工作原理

DVR的结构解析以及工作原理 DVRDigitalVideoRecorder(数字硬盘录像机),是目前视频监控行业最为常见并且最为理想的监控和记录视频资料的设备。 DVR是一套进行图像存储处理的计算机系统,具有对图像/语音进行长时间录像、录音、远程监视和控制的功能,DVR集合了录像机、画面分割器、云台镜头控制、报警控制、网络传输等五种功能于一身,用一台设备就能取代模拟监控系统一大堆设备的功能,而且在价格上也逐渐占有优势。此外DVR影像录 制效果好、画面清晰,并可重复多次录制,能对存放影像进行回放检索。 DVR系统的硬件主要由CPU,内存,主板,显卡,视频采集卡,机箱,电源,硬盘,连接线缆等构成。 目前市面上主流的DVR采用的压缩技术有MPEG-2、MPEG-4、H.264、M-JPEG,而MPEG-4、H.264是国内最常见的压缩方式;从压缩卡上分有软压缩和硬压缩两种,软压受到CPU的影响较大,多半做不到全实时显示和录像,故逐渐被硬压缩淘汰;从摄像机输入路数上分为1路、2路、4路、6路、9路、12路、16路、32路,甚至更多路数;总的来说,按系统结构可以分为两大类:基于PC架构的PC式DV R和脱离PC架构的嵌入式DVR。 数字硬盘录像机的设计从根本上取代了原来质量低下,高维修率的CCTV录像机,例如视频监控模拟录像机。DVR不仅仅**性地扩展了CCTV视频监控系统的功能,并且所增加的功能使其远远优于以前使用的模拟录像机。 首先,最重要的是,DVR把高质量的图像资料记录在硬盘中,免除了不停地更换录像带的麻烦。其次,DVR的内置的多路复用器可以多路同时记录CCTV录像机的视频资料,降低了视频监控系统中所需的设备,显示出了强大的功能。这样,通过把安防摄像机的视频信息数字化并且基于MPEG-4进行压缩,DVR可以高效率地记录多路高质量的视频流。DVR也可能用其他方格式备份视频信息,如CD-RW/DVD -RW。USB驱动器,记忆卡或者其他存储卡等等。 因此,DVR不仅仅在普遍意义上增加了监控系统的部件和功能,而且,DVR软件已经极大地扩展了视频监控系统的设计,功能和效益。通过把数字报警信号输入和输出到硬盘录像机,几乎所有类型的安全系统组合都允许DVR作为主要的监测和控制设备嵌入。

显卡的工作原理与作用

显卡的工作原理与作用 1.显卡在电脑系统中的作用 显卡在电脑中的主要作用就是在程序运行时根据CPU提供的指令和有关数据,将程序运行过程和结果进行相应的处理并转换成显示器能够接受的文字和图形显示信号后通过屏幕显示出来,以便为用户提供继续或中止程序运行的判断依据。换句话说,显示器必须依靠显卡提供的显示信号才能显示出各种字符和图像。 2.什么是2D和3D图形卡 电脑中显示的图形实际上分为2D(2维/Two Dimensional)和3D(3维)两种,其中2D图形只涉及所显示景物的表面形态和其平面(水平和垂直)方向运行情况。如果将物体上任何一点引入直角坐标系,那么只需“X、Y”两个参数就能表示其在水平和上下的具体方位。3D图像景物的描述与2D相比增加了“纵深”或“远近”的描述。如果同样引入直角坐标系来描述景物上某一点在空间的位置时,就必须使用“X、Y、Z”三个参数来表示,其中“Z”就是代表该点与图像观察者之间的“距离”或“远近”。 电脑平常显示的Windows窗口中各种菜单(包括运行的Word等Ofiice软件)和部分游戏如《仙剑奇侠》或《帝国时代》等都是2D图形显示,而3D Studio MAX的图形制作和游戏《雷神之槌》、《极品飞车》等显示的则都是3D画面。由于早期显示芯片技术性能的限制,电脑显示2D/3D图形时所须处理的数据全部由CPU承担,所以对CPU规格要求较高,图形显示速度也很慢。随着图形芯片技术的逐步发展,显卡开始承担了所有2D图形的显示处理,因此大大减轻了CPU的负担,自然也提高了图形显示速度,也因此有了2D图形加速卡一说。但由于显示3D图形时所须处理的数据量和各种计算远远超过2D图形显示,所以在3D图形处理芯片出现前显卡还无法承担3D图形显示数据的处理,因此为完成3D图形显示的数据计算和处理仍须由CPU完成。1997年美国S3公司开发出S3 Virge/DX芯片,开创了由显卡图形处理芯片完成(部分)3D显示数据的处理的先河,从此人们也开始将具有3D图形显示处理芯片的显卡称为3D图形(加速)卡。当然随着图形芯片技术的不断发展,当今市场上几乎所有显卡所使用的图形芯片全部都算3D芯片了,特别是nVidia公司的GeForce芯片几乎能完成所有的3D图形处理(包括原来必须由电脑CPU所承担的几何转换和光线渲染处理),因此被冠以GPU的桂冠。 3.常用显卡分类 虽然目前各种品牌的通用3D显卡规格、型号较多,但按其主要应用范围则基本上可分为三类:一类是以nVidia公司的TNT2和Matrox公司的G400为代表的通用型,主要用于办公处理和一般娱乐(游戏);第二类侧重娱乐,其代表芯片当仁不让的是3dfx公司的Voodoo 系列;第三类侧重专业应用,主要用于2D或3D图形的CAD(电脑辅助设计)或图片专业处理等,这类显卡中使用较多的是3Dlabs公司生产的Permedia系列芯片。 4.显示“子卡” 在3D显卡发展初期,3dfx公司生产了使用Voodoo 和Voodoo2图形芯片的3D显卡,这

详解显卡供电原理

详解显卡供电原理 测试6800U SLI系统,平台采用某国内知名大厂生产的480W服务器电源。开机、自检、进入桌面、运行软件都没有任何问题,但在3D测试过程中突然黑屏,系统自动重启之后连进入BIOS都花屏,最后发现SLI系统中一块主显卡已经烧毁。或许您认为笔者是危言耸听, 480W的功率应付两块6800U显卡应该没啥问题,但它确实是因电源而烧毁,这 究竟是什么原因呢? 无论CPU还是显示芯片,为了获得更高的性能必须付出相应的代价,那就是功耗。如果显卡供电不足,那么在3D渲染时功耗过大导致电源不堪重负,轻则显卡的性能受制、超频能力受限,重则死机、黑屏、断电甚至烧毁显卡和电源。要了解这些内容,必须从当今主流显卡的供电方案谈起…… AGP供电特点分析——力不从心 AGP(Accelerated Graphics Port)加速图形端口是在PCI图形接口的基础上发展而来的,自1997年问世以来就伴随着显卡进入高速发展阶段,多年来经历了数次版本更新,虽然新一代的接班人PCIE 接口无论从哪个方面来说都具有很大的优势,但是经典的AGP接口依然宝刀未老,即便是顶级显卡也丝毫不敢马虎,为了考虑兼容性“脚踏两条船”的现象非常普遍。 主板AGP8X插槽

显卡AGP8X接口 AGP显卡的供电其实和内存/PCI扩展卡相同,都是从金手指的部分针脚处取电。早期的显卡以及目前的中低端显卡都是按照预先设计好的供电方案,通过针脚上的几种输入电压来选择。按照下图所示的最新AGP 3.0标准,简单将几者相加就知道AGP接口所能提供的最高功率为46W。 但46W这只是理论上的极限值,实际AGP所能提供的最大功率远达不到,AGP3.0(AGP8X)标准当中对几路供电针脚最大输入电流的做了严格的定义,下面逐一进行介绍: AGP接口各路输入详解: Vddq为显卡的输入输出接口供电,电压1.5V,这也就是通常所说的AGP电压,也可以称之为AGP总线的供电电压。以超频为卖点的主板BIOS当中能够对AGP加压。不过要注意对Vddq加压或许能够提高显卡超频(或者提高AGP频率)之后工作的稳定性,但是AGP的总输入功率并没有变化,

显卡帝手把手教你读懂GPU架构图

GPU架构“征途之旅”即日起航 显卡GPU架构之争永远是DIY玩家最津津乐道的话题之一,而对于众多普通玩家来说经常也就看看热闹而已。大多数玩家在购买显卡的时候其实想的是这款显卡是否可以满足我实际生活娱乐中的应用要求,而不大会很深入的关注GPU的架构设计。不过,如果你想成为一个资深DIY玩家,想与众多DIY高手“高谈阔论”GPU架构设计方面的话题的时候,那么你首先且必须弄明白显卡GPU架构设计的基本思想和基本原理,而读懂GPU架构图正是这万里长征的第一步。

显卡帝手把手教你读懂GPU架构图 通过本次GPU架构图的“征途之旅”,网友朋友将会和显卡帝共同来探讨和解密如下问题: 一、顶点、像素、着色器是什么; 二、SIMD与MIMD的架构区别; 三、A/N在统一渲染架构革新中的三次交锋情况如何; 四、为什么提出并行架构设计; 五、A/N两家在GPU架构设计的特点及其异同点是什么。

以上目录也正是本文的大致行文思路,显卡帝希望能够通过循序渐进的分析与解读让众多玩家能够对GPU架构设计有个初步的认识,并且能够在读完本文之后能对GPU架构图进行独立认知与分析的基本能力,这将是本人莫大的欣慰。 非统一架构时代的GPU架构组件解读 上世纪的绝大多数显示加速芯片都不能称之为完整意义上的GPU,因为它们仅仅只有像素填充和纹理贴图的基本功能。而NVIDIA公司在1999年所发布的GeForce 256图形处理芯片则首次提出了GPU的概念。GPU所采用的核心技术有硬件T&L、立方环境材质贴图和顶点混合、纹理压缩和凹凸映射贴图、双重纹理四像素256位渲染引擎等,而硬件T&L (Transform and Lighting,多边形转换与光源处理)技术可以说是GPU问世的标志。 演示硬件几何和光影(T&L)转换的Demo ● 传统的固定渲染管线 渲染管线也称为渲染流水线,是显示芯片内部处理图形信号相互独立的的并行处理单元。在某种程度上可以把渲染管线比喻为工厂里面常见的各种生产流水线,工厂里的生产流水线是为了提高产品的生产能力和效率,而渲染管线则是提高显卡的工作能力和效率。 什么叫一条“像素渲染管线”?简单的说,传统的一条渲染管线是由包括Pixel Shader Unit (像素着色单元)+ TMU(纹理贴图单元) + ROP(光栅化引擎)三部分组成的。用公式表达可以简单写作:PS=PSU+TMU+ROP 。从功能上看,PSU完成像素处理,TMU负责纹理

显卡供电电路和工作原理(借鉴实操)

虽然显卡的工作原理非常复杂,但是它的原理和部件倒是很容易理解。 数据离开CPU,必须经过4个步骤,才会到达显示屏上。 1.从PCI bus进入GPU——将CPU送来的数据送到GPU里面进行处理。 2.从GPU进入显存——将芯片处理完的数据送到显存。 3.从显存进入DAC——由显存读取出数据再送到RAMDAC(随机读写存储数模转换器),RAMDAC的作用是将数字信号转换成模拟信号。 4.从DAC进入显示器——将转换完的模拟信号送到显示屏。 下面扯显卡的供电电路。 绝大多数显卡是由主板上的AGP/pcie插槽供电的,没有电池来供应所需的工作电能,而是由显卡上的金手指通过主板的插槽和电源的+12V 6pin接口等来获得所需的电量。 原本打算把AGP插槽的供电定义发上来,但考虑到已经不合实际情况,故作罢。PCIE插槽的定义:靠近CPU的那一组触点为A组,对面为B组,由主板的I/O 芯片往南桥方向数,每一边各有82个触点。 +12V供电:A2,A3,B1,B2,B3 +3.3V:A9,A10,B8 +3.3Vaux:B10 PCIE显卡没有+5V供电。 显卡的供电无论是通过主板进入,还会是直接外接电源进入,都不可能正好符合显卡各种芯片正常工作的电压值。超过频的都知道,GPU的核心供电是 0.9~1.6V,显存供电是1.5~3.3V,接口部分有的需要3.3v,有的需要+5V,各不相同,于是这就涉及到显卡上直流电源模块设计的问题。 直流电源模块的基本工作原理:无论输入端的电压怎么变化,它都能输出一个相对稳定的预先设计的较为平滑的电压值,并可以带动一定的负载。 显卡上的直流电源供电模块主要有三大类:三端稳压;场效应管线性降压和开关电源稳压方式。他们的工作模式都是采取降压工作模式,即输出电压总是低于输入电压。 1.三端稳压供电方式 这是显卡中相对较简单的一种供电方式,采用的集成电路主要有1117,7805等。这种方式虽然较简单,但是提供的电流很小。一般DAC电路和接口部分的电路供

显卡的结构

显卡的结构、发展历史及发展现状 摘要:随着计算机技术和通讯技术的发展,人类步入了信息时代。对生活在这样一个崭新的社会背景下的人们来说,“电脑”一词我们早已不再陌生,它已经悄悄地渗入了人类活动的各个领域。而作为大学生的我们对电脑的构造有所认识与了解是必要的,本文对显卡进行部分的介绍。 显卡是目前大家最为关注的电脑配件之一了,他的性能好坏直接关系到显示性能的好坏及图像表现力的优劣等等。回首看当今的显卡市场早已非当年群雄逐鹿的局面,昔日的老牌厂商随着时间地推移纷纷相继没落或死去,留下的只有记忆中的点点滴滴和怅然的落寞。但是图形技术的不断革新,换来的是一次次的进步和不断攀越的性能高峰。电脑是人们现在必不可少的电子产品,在产品琳琅满目的商场里,关乎电脑性能的显卡是我们在挑选电脑时很头疼的问题,而大多数人对显卡的了解很少,很多人是模棱两可,本文就显卡的结构、发展历史及发展现状做一番简要的描述。希望大家看了对显卡有一定的了解。 显卡的主要部件包括:显示芯片,显示内存,RAMDAC等。一般来说显卡上最大的芯片就是显示芯片,显示芯片的质量高低直接决定了显示卡的优劣,作为处理数据的核心部件,显示芯片可以说是显示卡上的CPU,一般的显示卡大多采用单芯片设计,而专业显卡则往往采用多个显示芯片。由于3D浪潮席卷全球,很多厂家已经开始在非专业显卡上采用多芯片的制造技术,以求全面提高显卡速度和档次。与系统主内存一样,显示内存同样也是用来进行数据存放的,不过储存的只是图像数据而已,我们都知道主内存容量越大,存储数据速度就越快,整机性能就越高。同样道理,显存的大小也直接决定了显卡的整体性能,显存容量越大,分辨率就越高。显示卡是系统必备的装置,它负责将CPU 送来的影像资料处理成显示器可以了解的格式,再送到显示屏上形成影像。它是我们从电脑获取资讯最重要的管道。因此显示卡及显示器是电脑最重要的部份之一。我们在监视器上看到的图像是由很多个小点组成的,这些小点称为“像素”。在最常用的分辨率设置下,屏幕显示一百多万个像素,电脑必须决定如何处理每个像素,以便生成图像。为此,它需要一位“翻译”,负责从CPU获得二进制数据,然后将这些数据转换成人眼可以看到的图像。除非电脑的主板内置了图形功能,否则这一转换是在显卡上进行的。我们都知道,计算机是二进制的,也就是0和1,但是总不见的直接在显示器上输出0和1,所以就有了显卡,将这些0和1转换成图像显示出来。不同显卡的工作原理基本相同CPU与软件应用程序协同工作,以便将有关图像的信息发送到显卡。显卡决定如何使用屏幕上的像素来生成图像。之后,它通过线缆将这些信息发送到监视器。 显卡的演变自从IBM于1981年推出第一块显卡以来,显卡已经有了很大改进。第一块显卡称为单色显示适配器,只能在黑色屏幕上显示绿色或白色文本。而现在,新型显卡的最低标准是视频图形阵列,它能显示256种颜色。通过像量子扩展图矩阵这样的高性能标准,显卡可以在最高达2040x1536像素的分辨率下显示数百万种颜色。根据二进制数据生成图像是一个很费力的过程。为了生成三维图像,显卡首先要用直线创建一个线框。然后,它对图像进行光栅化处理(填充剩余的像素)。此外,显卡还需添加明暗光线、纹理和颜色。对于快节奏的游戏,电脑每秒钟必须执行此过程约60次。如果没有显卡来执行必要的计算,则电脑将无法承担如此大的工作负荷。显卡在完成工作的时候主要靠四个部件协调来完成工作,主板连接设备,用于传输数据和供电,处理器用于决定如何处理屏幕上的每个像素,内存用于存放有关每个像素的信息以及暂时存储已完成的图像,监视器连接设备便于我们查看最终结果。 显卡已经有了很多年的发展历史,它经历了长久的演进过程,也经历了多家公司的兴起与衰落。从最初简单的显示功能到如今疯狂的3D速度,显卡的面貌可谓沧海桑田。无论是

相关文档
最新文档