文 献 综 述
一、研究背景及意义
图像是人类从世界中获取信息的主要途径,随着相机的产生,人类对图像的理解与应用得到了极大的提升。目前图像处理算法已经发展成为当今多领域融合的综合学科。然而,目前处理的图像大多数仍然局限于二维图像,而如图二维图像在当今诸如智能制造,监控安防等领域都有着诸多限制,难以适用。相比于二维图像,三维图像有着其难以比拟的优势,通过三维深度信息中的深度信息,可以实现诸如图像分割,形貌扫描,距离估计等一系列应用中技术突破。在如今三维成像领域,如何获取高质量的三维图像(深度信息)则是急需突破的难题。
光场成像如今成为计算机领域中一个热门研究领域。相比于传统二维图像,光场不仅仅记录光线的空间强度信息,还保留了光线的角度信息。相机阵列与光场相机是目前获取光场的主要设备,通过编码孔径或者掩膜技术也能获取光场。得益于光场的角度信息,可以实现如绕过障碍物成像,先拍照后聚焦,合成高动态高精度图像,制作高速视频甚至是估计深度等应用。
2011年,美国Lytro公司推出了首款光场相机[1],该相机在主透镜和传感器之间插入了一个微透镜组,捕捉每个像素上来自不同角度的光线,获取场景中光线的位置和方向信息,将二维图像扩展到四维[2-3]。它允许用户先拍照再通过后续的计算处理进行包括数字重聚焦,深度估计在内的多种操作,可以说是摄影成像领域的革命性产品。
二、国内外研究现状
关于光场成像的研究最早可以追溯到1903年,Ives发明的针孔成像技术率先通过在主透镜像面上放置针孔面阵列,使光照辐射重新分布,避免角度信息的丢失。1908年,法国科学家李普曼(M.G. Lippman)发明了集成照相技术[4],他提出将一个微透镜阵列放置在一个胶片面前,使物体成像后,将胶片制成透明照片,再从后方照射胶片,形成三维图像,这被认为是理想的三维系统,后来被运用于三维全息成像领域[5]。1948年,
Gabor利用两束相干光相干,记录了物体未衍射聚焦前的波,获得了第一张全息图,其
中包含了位置和方向信息的光照辐射分布,从一定程度上说是一张光场图像。1992年,Adelson运用光场理论并成功提出全光场理论。1996年,Levoy提出光场渲染理论。光场理论至此相对成熟[6]。
随着各种理论的提出和计算机技术、微透镜制作工艺的快速发展,2006年,马来西亚华人科学家黄逸人(Ng Yi Ren)根据斯坦福大学的多相机系统,结合前人观点,阐述了光场相机的技术原理并开发了相应的软件算法。他提出将微透镜阵列胶片放置在相机中的透镜组和传感器之间,以接受各方向的光束信息,通过计算机处理对图像进行重组和调整,达到先照相后聚焦的效果[7]。2011年,在Ng的工作基础上Lytro公司发售了世界首款消费级光场相机。
基于光场的深度估计最早由Bolles [8]等人提出,在他们的文章极线图(EPI)这一利用对应点信息的重要的概念被首次提出。在此基础上,Criminisi [9]等人通过管状EPI提升了三维图像重构精度,并且去除了高反射区域影响。除此之外,Bishop [10]等人通过最小能量函数对初步获取的深度图像进行优化,同样获取了高密度的三维数据。Yu [11]则通过几何约束来提高三维成像精度。目前,大多数基于EPI的深度估计(三维成像)方法需要全局最优化函数迭代,这在处理计算量较大的高分辨图像时是难以接受的。除此之外,误差扩散也是此类方法难以避免的内在问题。
