基于三维光强传输的全分辨率计算光场显微成像研究文献综述

 2022-11-27 15:50:46

结合毕业设计(论文)课题情况,根据所查阅的文献资料,每人撰写 2000字左右的文献综述:

一、光场成像技术发展

光场成像技术最早可以追溯到1903年Ives发明的双目视差显示系统,其中运用了针孔成像技术[1]。在主透镜的像面处放置针孔面阵列,从而使原像面处的光辐射按角度进行重分布后记录在光探测器上,避免了角度信息的丢失。

1908年,Lippman 发明集成照相术(integral photography,IP)[2],通过用微透镜阵列代替针孔面阵列,在底片上接收到有微小差别的一系列基元图像,消除了Ives装置中的弥散斑。后来被广泛运用于三维全息成像。

Gershun在1936年提出光场的概念,将其定义为光辐射在空间各个位置向各个方向的传播[3]。他认为,到达空间不同点处的光辐射量连续变化,能够通过几何分析进而积分的方法来计算像面上每点的光辐射量。但是,由于计算量庞大,能够进行高次运算的计算机尚未出现,所以当时未能对其理论进行验证。

1948年,Gabor利用两束相干光干涉记录下物体衍射未聚焦的波前,获得第一张全息图[4]。如果把这张全息图看作是包含方向和位置信息的光辐射函数,那么这其实也是一张特殊的光场图像,而非传统只记录强度信息的二维图像。

20世纪六七十年代, Okoshi[5-6]、Dudnikov[7-10]、Dudley[11-12]、Montebello[13]等学者对 IP技术进行了不断的改进,微透镜阵列在成像方面的作用也得以凸显。

随着计算机技术的不断发展和微透镜制作精度的提高,Adelson于1992年将光场理论成功运用到计算机视觉,并提出全光场理论(plenoptic theory)[14]。

光场理论的进一步完善归功于1996年 Levoy的光场渲染理论(light field rendering,LFR)[15],他将光场进行参数化表示,并提出计算成像公式。在此基础上,2005年,Ng 发明了第一台手持式光场相机[16],其原理简单,使用方便。2006 年,Levoy 将 LFR 理论运用于显微成像,并研制出光场显微镜(light field microscopy,LFM) ,能够一次曝光得到多个视角多组焦平面图像,从而得到大景深的显微图片,并可进行三维重建[17]。

剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付

发小红书推广免费获取该资料资格。点击链接进入获取推广文案即可: Ai一键组稿 | 降AI率 | 降重复率 | 论文一键排版