光场相机原理

合集下载

3D成像方法汇总(原理解析)---双目视觉、激光三角、结构光、ToF、光场、全息

3D成像方法汇总(原理解析)---双目视觉、激光三角、结构光、ToF、光场、全息

3D成像方法汇总(原理解析)---双目视觉、激光三角、结构光、ToF、光场、全息3D成像方法汇总介绍:这里要介绍的是真正的3D成像,得到物体三维的图形,是立体的图像。

而不是利用人眼视觉差异的特点,错误感知到的假三维信息。

原理上分类:主要常用有:1、双目立体视觉法(Stereo Vision)2、激光三角法(Laser triangulation)3、结构光3D成像(Structured light 3D imaging)4、飞行时间法ToF(Time of flight)5、光场成像法(Light field of imaging)6、全息投影技术(Front-projected holographic display)7、补充:戳穿假全息上面原理之间可能会有交叉。

而激光雷达不是3D成像原理上的一个分类,而是一种具体方法。

激光雷达的3D成像原理有:三角测距法、飞行时间T oF法等。

激光雷达按照实现方式分类有:机械式、混合固态、基于光学相控阵固态、基于MEMS式混合固态、基于FLASH式固态等。

1、双目立体视觉法:就和人的两个眼睛一样,各种两个摄像头的手机大都会用这种方法来获得深度信息,从而得到三维图像。

但深度受到两个摄像头之间距离的限制。

视差图:双目立体视觉融合两只眼睛获得的图像并观察它们之间的差别,使我们可以获得明显的深度感,建立特征间的对应关系,将同一空间物理点在不同图像中的映像点对应起来,这个差别,我们称作视差(Disparity)图像。

对于视差的理解可以自己体验一下:将手指头放在离眼睛不同距离的位置,并轮换睁、闭左右眼,可以发现手指在不同距离的位置,视觉差也不同,且距离越近,视差越大。

提到视差图,就有深度图,深度图像也叫距离影像,是指将从图像采集器到场景中各点的距离(深度)值作为像素值的图像。

深度图与点云的区别,点云:当一束激光照射到物体表面时,所反射的激光会携带方位、距离等信息。

若将激光束按照某种轨迹进行扫描,便会边扫描边记录到反射的激光点信息,由于扫描极为精细,则能够得到大量的激光点,因而就可形成激光点云。

光场深度估计

光场深度估计

光场深度估计光场深度估计是指通过光场摄像机采集的图像数据,对物体的深度信息进行估计的过程。

光场摄像机可以在同一时刻获取多个视角下的图像信息,因此可以用这些信息来估计物体的深度。

本文将针对光场深度估计的原理、方法和应用进行详细介绍。

原理光基几何学是光场深度估计的重要原理。

在光基几何学中,将光线看作是一条从物体到相机的路径,这个路径可以通过不同的视角看到不同的内容,因此,可以通过多个视角下的图像来重建场景的深度信息。

光场摄像机是一种特殊的相机,可以同时采集多个图像。

利用这些图像信息,可以构建光场数据,从而对物体的深度信息进行估计。

光场摄像机的工作原理是将光线聚焦在一个微小的孔上,通过微透镜阵列将光线分散成多个微弱的光束,从而形成一组彼此不同的子像。

方法基于光场的深度估计方法可以分为两类:传统计算方法和基于深度学习的方法。

传统计算方法主要是基于光基几何学理论,通过对光场的处理来获取场景的深度信息。

这类方法具有较高的计算效率和较好的准确性,但需要对光场的特征进行细致的分析和处理。

基于深度学习的方法则是利用深度卷积神经网络(CNN)来学习光场和场景深度之间的关系。

这类方法能够自动从数据中学习并提取深度信息,具有较好的鲁棒性和较高的准确性。

应用光场深度估计技术在许多领域中有广泛应用,包括虚拟现实、增强现实、机器视觉和自动驾驶等。

例如,在增强现实应用中,利用光场深度估计技术可以实现更精确的物体跟踪和虚拟物体的渲染,从而提高应用的真实感和交互性。

在自动驾驶领域,利用光场深度估计技术可以提高车辆的感知和理解能力,从而提高行驶的安全性和效率。

结论光场深度估计技术是一种新兴的计算机视觉技术,在许多领域中有重要的应用价值。

随着计算机硬件和软件技术的不断发展,光场深度估计技术将在更多领域中实现更广泛的应用和深入的研究。

光场相机原理

光场相机原理

光场相机原理
光场相机原理是一种新兴的摄影技术,其主要原理是利用多个微透镜阵列捕捉光线进入相机的方向和强度信息。

与传统相机不同,光场相机通过在图像传感器上放置微透镜阵列来记录光线的路径和方向信息,从而实现对光场的高精度记录。

在光场相机中,每个微透镜都可以看作一个微型相机,它能够接收到特定方向上的光线并将其聚焦到相应的像素上。

通过记录每个微透镜上进入相机的光线方向和强度信息,光场相机可以得到一组包含了光线传播的完整信息的图像数组,也被称为光场数据。

在获得了光场数据后,利用光场相机的软件算法可以进行后续的图像处理。

其中最常见的应用是改变焦点和景深。

传统相机在拍摄时需要通过调整镜头的焦距来改变焦点位置,而光场相机则可以通过解析光场数据在后期进行对焦,从而实现在不同距离上的物体都能保持清晰的成像效果。

此外,光场相机还可以通过对光场数据进行相应运算,实现改变景深的效果,使得被拍摄物体的前景和背景都能保持清晰,并且可以在后期进行灵活的调整。

除了改变焦点和景深,光场相机还有其他一些应用领域。

例如,通过对光场数据进行解析和处理,可以实现三维立体图像的生成,从而为虚拟现实、增强现实和全息投影等领域提供更丰富的图像数据。

此外,光场相机还可以利用光线传播信息来进行深度感知,实现跟踪和识别目标物体的功能,在机器视觉和自动驾驶等领域有着广泛的应用前景。

总之,光场相机通过多个微透镜阵列记录光线的方向和强度信息,实现了对光场的高精度捕捉。

借助光场数据的处理和算法,光场相机可以实现改变焦点、景深以及其他一些特殊效果的功能。

随着技术的不断发展和创新,相信光场相机在未来将为摄影领域带来更加出色的成像效果和更广泛的应用空间。

光场相机用途

光场相机用途

光场相机用途探讨一、引言光场相机是一种新型的数字化设备,它通过捕捉光线的方向和强度信息,记录了光线从空间中某一点发出后,经过光学系统聚焦到图像传感器上的整个过程。

这种相机的出现,为我们的生活带来了许多新的可能性。

本文将详细介绍光场相机的各种用途。

二、光场相机的基本概念光场相机的核心概念是“光场”,即光线在空间中的分布情况。

与传统的相机不同,光场相机不仅记录了光线的强度,还记录了光线的方向。

这使得光场相机能够提供更为丰富的视觉信息,为我们带来更为真实的视觉体验。

三、光场相机的主要用途1. 3D成像:光场相机可以捕获物体的光场信息,从而生成高质量的3D图像。

这种3D图像不仅可以从任何角度观看,而且具有良好的深度感和真实感。

2. 增强现实(AR)和虚拟现实(VR):光场相机可以提供更为真实的环境感知,使得AR和VR技术的应用更加广泛。

例如,通过光场相机,用户可以在虚拟环境中与真实的物体进行交互。

3. 光照调整:光场相机可以捕获光线的方向和强度信息,从而对光照进行精确的调整。

这对于电影制作、摄影和其他需要精确控制光照的领域来说,具有重要的价值。

4. 无人驾驶:光场相机可以提供更为准确的环境感知,使得无人驾驶汽车能够在复杂的道路环境中安全行驶。

5. 医疗影像:光场相机可以提供更为详细的影像信息,使得医生能够更准确地诊断疾病。

四、光场相机的挑战和未来发展尽管光场相机具有许多优点,但它也面临着一些挑战,如高成本、大体积和低分辨率等。

然而,随着技术的发展,这些问题有望得到解决。

未来,光场相机有望在更多的领域得到应用,为我们的生活带来更多的便利。

五、总结光场相机是一种具有广泛应用前景的新型设备。

它不仅可以提供更为真实的视觉体验,还可以在3D成像、AR/VR、光照调整、无人驾驶和医疗影像等领域发挥重要作用。

尽管目前它还面临着一些挑战,但随着技术的发展,我们有理由相信,光场相机的未来将会更加光明。

光场成像技术

光场成像技术

光场成像技术1.前言光场是空间中同时包含位置和方向信息的四维光辐射场的参数化表示,光场数据的获取为计算成像提供了很多新的发展方向。

传统成像方式在拍摄高速运动或者多主体较大间距物体时,容易出现失焦、跑焦现象。

对于高速运动物体来说,想抓住精彩一瞬的同时对准焦是非常困难的。

此外,要减少高速运动物体带来的运动模糊,如果减少曝光时间则导致图像太暗,增大孔径则造成景深太小,背景模糊。

而对多主体目标物来说,焦点往往对准在中心物体上,其他目标由于景深过小往往看不清细节。

调小光圈的方法在光线充足的情况下可以使用,但是在拍摄光线不足的室内条件下会带来曝光不足的问题。

光场成像通过记录光辐射在传播过程中的四维位置和方向的信息,相比只记录二维的传统成像方式多出2个自由度,因而在图像重建过程中,能够获得更加丰富的图像信息。

此外,还能通过数字重聚焦技术解决特殊场合图像的失焦、背景目标过多等问题; 通过合成孔径技术实现“透视”监视; 在与显微技术融合后,还能得到多视角大景深显微图像,以及重建后的三维立体图。

2.光场成像的发展光场成像的雏形可以追溯到1903年Ives 发明的双目视差显示系统中运用的针孔成像技术,通过在主透镜的像面处放置针孔面阵列,从而使原像面处的光辐射按角度进行重分布后记录在光探测器上,避免了角度信息的丢失。

1908 年,Lippman 发明集成照相术( integral photography,IP),后来被广泛运用于三维全息成像.通过用微透镜阵列代替针孔面阵列,在底片上接收到有微小差别的一系列基元图像,消除了Ives 装置中的弥散斑。

Gershun 在1936年提出光场的概念,将其定义为光辐射在空间各个位置向各个方向的传播[3]。

他认为,到达空间不同点处的光辐射量连续变化,能够通过几何分析进而积分的方法来计算像面上每点的光辐射量。

但是,由于计算量庞大,能够进行高次运算的计算机尚未出现,所以当时未能对其理论进行验证。

光场相机工作原理

光场相机工作原理

光场相机Lytro 的运作原理和运算方法A Light Field Camera“ Lytro ” , the Principle and Algorithms概略Lytro 以在照片拍摄后,照片的对焦点可以自由变换的相机而被知晓 .Lytro 称其为光场相机.成像部分是由图像感应器和微型镜头所构成,并得到入射光束集中的光场•然后从光场再处理成最终的画面,光线集中相当于计算镜头的运作.本文就Lytro 的动作原理和画面生成的运算方法进 行解释.1 .前言数码相机是在摄像像素点上形成鲜亮的光 像,并把此光像忠实的反应成数码影像的装 置。

但是光场相机则是采用与数码相机完全不 同的原理所被认知。

此相机是采用光场(光线 空间)得到多条光线,再将光线集合并经过一 种图像处理得到最终成像的相机。

其代表机能 为利用摄影后的后处理,变更相机焦点距离的 再对焦机能。

初期的光场相机是用多台相机纵横排列成 的相机矩阵的实配.相机矩阵对机能有验证作 用,但是没有实用性•另一方面, Ng 式做了在 成像像素的前面配置微镜头,通过致密的框体 集中光线的光场相机.之后, Ng 为了将此技术 商品化而成立了公司,在2012年开发了 Lytro . 本文是根据Ng 的论文及实际的分析解析为基 础解释Lytro 的运作原理,机能,运算方法图1为Lytro 的影像感应器的扩大照片影像感应器是数 码相机用的CMOS 感应器,内间距为1.4卩m ,影像 感应器上覆盖蜂巢结构的微镜头,微镜头的内间距 为14卩m 。

影像感应器3280*3280像素的面积上覆盖 330*380个微镜头,一个微镜头的直径大约是 10个 像素点的长度。

2. Lytro 的影像感应器 図]测廿一豁e 扭;大写卓豊迪工iz 夕卜口二夕乂 卜十一)微镜头和保护用玻璃一体成型, CMOS 感 应器上面有少量空间,保护玻璃上面平坦,底 面排列微镜头。

保护玻璃和微镜头的厚度约为 430卩m ,另外CMOS 表面设置了拜尔型彩色滤 膜。

光场成像技术

光场成像技术

1992年,Edward H.Adelson和Y.A.Wang设计了记录物体在各 个可能角度通过镜头光圈的所有信息的全光相机。
全光相机结构原理图

2005年,Ren Ng等人在全光相机的结构上做了一些简化,并 在传统相机的基础上制成了光场相机。
光场相机结构原理图
2.4 基于微透镜阵列的光场成像原理
光场成像技术
孙玉祥 314113002432
1 传统成像
组成结构:光学透镜元件 本质:光辐射在二维平面上的投影积分 局限性: ①景深受限于孔径大小 ②实际光学系统非理想 ③“所见即所得”的探测形式

2.1 光场

概念:同时包含位置和方向信息的四维光辐 射场的参数化表示
Levoy光场渲染理论
2.4.1 基于微透镜阵列的光场采样
2.4.2 光场处理



数字对焦——改变光场投影平面
聚焦在不同平面时的图像显示
数字对焦时的光场重采样
ቤተ መጻሕፍቲ ባይዱ

数字变焦——改变光线通过镜头时传播方向
变焦后的图像
数字变焦时的光场重采样
3 光场成像分辨率优化

微透镜数量
空间分辨率 方向分辨率

每个宏像素包含像素个数
光场获取
以方向分辨率换取空间分辨率
改进
算法改进
谢谢!
2.2 光场成像特点
本质:将光场处理为图像 优势: ①无需机械对焦 ②能够消除几何相差 ③实时图像信息处理

2.3 光场采集
相机阵列
单相机
掩膜及其他
2.3.1 多相机光场采集
移动机械臂装置
基于计算机的X-Y移动平台
用于高分辨率成像的相机阵列

光场相机的技术原理

光场相机的技术原理

光场相机的技术原理Light field camera, also known as plenoptic camera, is a revolutionary imaging technology that captures both the intensity and direction of light rays. It differs from traditional cameras in that it can refocus images after they have been taken, giving users the ability to change the point of focus and depth of field in post-processing. This technology has the potential to revolutionize photography and computer vision, and has been implemented in consumer cameras as well as research and industrial applications.光场相机,也被称为光场相机,是一种革命性的成像技术,可以捕捉光线的强度和方向。

它不同于传统相机,可以在拍摄后重新聚焦图像,使用户能够在后期处理中改变焦点和景深。

这项技术有潜力改变摄影和计算机视觉,已经在消费相机以及研究和工业应用中得到实现。

The fundamental principle behind the light field camera lies in the concept of the light field, which describes the amount of light flowing in every direction through every point in space. By capturing not only the intensity of light, but also its direction, the camera is able to record a more comprehensive set of data about the scenebeing photographed. This allows for a wider range of creative possibilities and post-processing capabilities than traditional cameras are able to achieve.光场相机背后的基本原理在于光场的概念,它描述了光在空间中每个点处的每个方向中流动的量。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

光场相机Lytro的运作原理和运算方法
概略Lytro以在照片拍摄后,照片的对焦点可以自由变换的相机而被知晓.Lytro称其为光场相机.成像部分是由图像感应器和微型镜头所构成,并得到入射光束集中的光场.然后从光场再处理成最终的画面,光线集中相当于计算镜头的运作.本文就Lytro的动作原理和画面生成的运算方法进行解释.
1.前言数码相机是在摄像像素点上形成鲜亮的光像,并把此光像忠实的反应成数码影像的装置。

但是光场相机则是采用与数码相机完全不同的原理所被认知。

此相机是采用光场(光线空间)得到多条光线,再将光线集合并经过一种图像处理得到最终成像的相机。

其代表机能为利用摄影后的后处理,变更相机焦点距离的再对焦机能。

初期的光场相机是用多台相机纵横排列成的相机矩阵的实配.相机矩阵对机能有验证作用,但是没有实用性.另一方面,Ng试做了在成像像素的前面配置微镜头,通过致密的框体集中光线的光场相机.之后,Ng 为了将此技术商品化而成立了公司,在2012年开发了Lytro.本文是根据Ng的论文及实际的分析解析为基础解释Lytro的运作原理,机能,运算方法等.
2. Lytro的影像感应器图1为Lytro的影像感应器的扩大照片影像感应器是数码相机用的CMOS感应器,内间距为1.4μm,影像感应器上覆盖蜂巢结构的微镜头,微镜头的内间距为14μm。

影像感应器3280*3280像素的面积上覆盖330*380个微镜头,一个微镜头的直
径大约是10个像素点的长度。

微镜头和保护用玻璃一体成型,CMOS感应器上面有少量空间,保护玻璃上面平坦,底面排列微镜头。

保护玻璃和微镜头的厚度约为430μm,另外CMOS表面设置了拜尔型彩色滤膜。

图2显示影响感应器和微镜头的位置关系。

其并没有完全对齐,每个相机的框体的倾斜和偏
移都不一样。

推测其为装配微镜头时的机械原因的误差。

图3显示Lytro获得的原生像素的部分扩大原生像素明显的反映出了微镜头的构造,扩大图片显示了圆形构造内的像素结构直径约为10个像素,一个圆形构造内对应一束光线,圆形周围的像素较暗,此区域的光线获得较为困难。

3. 光场的获得影像感应器和主镜头来获得光场的示意见图4。

在A位置的被摄物由主镜头获取光线,其焦点位置落在微镜头矩阵上,此时,由被摄物发出并到达微镜头的光线,利用在其下方定位的像素记录方向和亮度,一个微镜头所对应的全部像素平均化,生成A位置合焦后的粗略的照片像素。

图4B位置上的灰色点,注意其位置通过的光线为3条,利用不同的微镜头,使光线记录到的像素点上。

将这些像素值平均化后,能够生成B焦点上的合焦照片像素。

B位置合焦后,A像就会变模糊,利用光场来计算这一现象。

图4上微镜头覆盖的三部分像素,最下方位置的像素追溯到主镜头,到达部分开口1所述范围.然后这些像素所生成的图像,是通过部分开口1的光线所成的像.同样微镜头覆盖的像素,最上方位置所生成的图像,是通过部分开口2的光线所成的像.如此,微镜头覆盖N 个像素时,就可以对微镜头所对应的相同位置上的像素进行排列形成N个小图像,由N个部分开口分割主镜头得到N个立体图像群.
4. 光场的映射从Lytro获取的原始图像的光场到生成最终照片图像的程序叫做光场映射.在此解释一下两种映射方法.第一种方法,对应映射焦点距离,N个立体图像适度平行移动后,并将其平均化的方法.称其为移动加算法.第二种方法,将获取的光像投射到适当焦点距离的设定图像面上.称其为光线束投影法.移动加算的映射说明.如3章所述,Lytro可以将捕捉到的光场分解成多个立体的画面群.图5的左侧部分说明其样式.从全部的微镜头相同位置抽取像素后再配列。

如此构成的小图像群,是从主镜头不同的部分开口处观察被摄物的图像群
所以,从开口位置到被摄物之间的距离有视差.将这些立体图像群与假想的焦点距离重合,使其只平行移动适当的量.然后将移动后的图像群加算平均化。

移动量对应纵深,被摄物由于像的位置重合所以形成锐利的图像,如果不是像就会模糊.另外,实际的相机在合焦前后,不仅是合焦位置有变化,像的大小也多少有变化.再次不考虑此效果.
移动加算映射算法,其单纯的计算成本比较小.但是,由于最终图像的像素数和微镜头的像素数相等,与一般的数码相机摄影后的画面尺寸相比较显得非常小.另外,微镜头和原始图像像素的位置关系由微镜头不同有微小的差异.所以,对于像素再配列来说,像素值需要一个补充差值.其结果就是会导致最终图像的解像度有稍许劣化.
移动加算映射算法,实装是比较容易的,但是最终的解像度不好.为了得到更好的图像所用的光线束投影法,以下进行说明.
图6上部所示,图像感应器和微镜头阵列所获取光线的样子,进行详细说明.3章所述,图像感应器的各像素获得一束光线进行了说明,但是要更正确的话,要获得一定程度的光束宽度。

光束投影映射如图6下部所示,是一种将获得的光束投射到设定焦点距离的假想图像上的方法.
各像素所获得的光束能够按照以下方法计算.图7是图像感应器的放大图.在此,图像感应
器面和微镜头阵列面的距离与微镜头的焦点距离 f 相等,像素为点.图中其他尺寸记号的意思以下说明.a: 微镜头的直径。

q: 像素的位置。

表示从覆盖微镜头的光轴的距离,以符号表示。

r: 微镜头光轴和主镜头光轴的距离。

θ: 获得的光线束和光轴所形成的的角度。

此时,像素所获得的光线束是平行光,对于光轴θ=arctan(-q/f)以此相交.光线束的直径a・cosθ,位置为主镜头光轴到微镜头阵列面r 的距离.
像素所占面积和,图像传感器面和微镜头阵列面的距离,按照一般情况来考虑和计算的话,比较复杂,但是按照相同的顺序的计算是可行的。

图8中是移动加算法和光线束投影所形成的映射图像的比较.图8(a)为样品图像整体.图中的前方参照范围是从Lytro开始30cm左右,后方参照范围是2m左右的距离.(b)和(c)进行比较,光线束投影形成的映射图像的解像度较高.另外,包括此实验在内,为了分析Lytro 的输出文件,用到了开源的lfptool
5. Web 图像映射用Lytro摄影后,将主机与电脑连接,经过数十秒的处理时间,形成2个文件.一个为图3所示图像感应器生成的原生图像.另一个是由复数JPEG图像和20×20像素的深度图像打包到一起的文件.
复数的JPEG图像分别是最靠前合焦的图像,中间位置合焦图像和最靠后合焦图像等焦点位置不同的图像。

图像的总张数是按照场景的纵深决定的,纵深大的图像10张左右,纵深小的4张左右。

这些焦点位置不同的图片,在相机连接到电脑时借由软件进行纵深调整形成光场映射。

利用这些复数的JPEG图像和纵深图像来生成Web浏览器可查看的再聚焦图片.Lytro将拍摄的图像生成Web图像的同时可以用鼠标点击任意希望聚焦位置,进行重新聚焦.其反应时间非常短.另外如第4章所说明的映射方法,虽然不是特别复杂,但是也不能做到即时实施.
鼠标所点击位置的距离测量处理也很必要.为了让Lytro能够即时生成重聚焦图像,要重新根据焦点不同的数张JPEG图像和1张纵深图像进行计算.
图9,表示推测出的Web的重聚焦图像的结构.用户在图像上点击位置进行再聚焦,到指定被摄物之间的距离要从纵深图像中读取.将从此深度附近抓取两张焦点接近的JPEG图
像.再聚焦图像是把这些图像的中间值图像进行适当的加重然后平均化后生成的图像.
2张JPEG图像加重平均处理,中间图像为根据其所模糊的图像.为了改善中间图像,要用到焦点位置分别不同的3张JPEG图像,就可以强调中间图像高频范围.2张的合成,3张的合成,此处说讲的处理并不是非常高深的事情.在Web浏览器上实现即时处理是可行的.
6. Lytro的课题Lytro是划时代的相机.但是还停留在未来性的相机上,并没有普及到一半消费者.在此说一下关于Lytro的几点课题.最大的课题,最终图像的像素或者说解像度太小.一个微镜头的直径覆盖10个像素,相比一般的相机尺寸要小10倍,横竖像素数只有十分之一.而且Lytro对图像感应器的像素的利用率也不好.Lytro的图像感应器3280×3280像素,微镜头阵列是330×380,每个微镜头所分到的像素是85.8个像素.另外,从图3来看,微镜头所用到的有效像素大约是50个像素.所以有40%左右的像素就用不到了.
微镜头边界上的像素无法使用,微镜头周边的像素所记录的光线的质量较差.如图10,表示了微镜头所对应的5处的像素所构成的小图像.此原稿的画质很难详细确认、1-3的图像光鲜明亮,相比起来1-1的图像整体偏红,摩尔纹和噪点能看到.光量也较少.3-3的图像整体偏蓝,同1-1一样画质不好,有摩尔纹和噪点.
Lytro的在对焦功能能够很好使用的话,就要习惯于Lytro.Lytro的主镜头直径约25mm,图像感应器4.6mm×4.6mm.要用这个尺寸的镜头和图像感应器体验郊外模糊感觉的话,就要在正常的构图中,使用近摄等(微距摄影)方法.所以正常的拍摄并不能充分发挥Lytro的性能.拍摄后的再聚焦功能,并不是静止画面,也可能会是动画摄像.现在的Lytro要针对各个框体内进行各种校准.最关键的校准是图像感应器和微镜头阵列的定位.如果此项不能正确的重合,就不可能有高品质的图像映射.。

相关文档
最新文档