结合毕业设计(论文)课题情况,根据所查阅的文献资料,每人撰写 2000字左右的文献综述:
一、光场成像技术发展
光场成像技术最早可以追溯到1903年Ives发明的双目视差显示系统,其中运用了针孔成像技术[1]。在主透镜的像面处放置针孔面阵列,从而使原像面处的光辐射按角度进行重分布后记录在光探测器上,避免了角度信息的丢失。
1908年,Lippman 发明集成照相术(integral photography,IP)[2],通过用微透镜阵列代替针孔面阵列,在底片上接收到有微小差别的一系列基元图像,消除了Ives装置中的弥散斑。后来被广泛运用于三维全息成像。
Gershun在1936年提出光场的概念,将其定义为光辐射在空间各个位置向各个方向的传播[3]。他认为,到达空间不同点处的光辐射量连续变化,能够通过几何分析进而积分的方法来计算像面上每点的光辐射量。但是,由于计算量庞大,能够进行高次运算的计算机尚未出现,所以当时未能对其理论进行验证。
1948年,Gabor利用两束相干光干涉记录下物体衍射未聚焦的波前,获得第一张全息图[4]。如果把这张全息图看作是包含方向和位置信息的光辐射函数,那么这其实也是一张特殊的光场图像,而非传统只记录强度信息的二维图像。
20世纪六七十年代, Okoshi[5-6]、Dudnikov[7-10]、Dudley[11-12]、Montebello[13]等学者对 IP技术进行了不断的改进,微透镜阵列在成像方面的作用也得以凸显。
随着计算机技术的不断发展和微透镜制作精度的提高,Adelson于1992年将光场理论成功运用到计算机视觉,并提出全光场理论(plenoptic theory)[14]。
光场理论的进一步完善归功于1996年 Levoy的光场渲染理论(light field rendering,LFR)[15],他将光场进行参数化表示,并提出计算成像公式。在此基础上,2005年,Ng 发明了第一台手持式光场相机[16],其原理简单,使用方便。2006 年,Levoy 将 LFR 理论运用于显微成像,并研制出光场显微镜(light field microscopy,LFM) ,能够一次曝光得到多个视角多组焦平面图像,从而得到大景深的显微图片,并可进行三维重建[17]。
