中华视窗是诚信为本,市场在变,我们的诚信永远不变...
在科幻电影中,我们经常看到这样的情景:在一块很大的屏幕上,一个个如幽灵般移动的 3D 物体(或者人)“飘”在我们眼前,栩栩如生,活灵活现,我们可以从各个角度看到它们。
在现实生活中,我们也能实现类似的摄影效果,这就涉及到了一种被称为全息摄影()的摄影技术。
1947 年,英国匈牙利裔物理学家 Gabor 发明了全息摄影技术,他也因此获得了 1971 年的诺贝尔物理学奖。自诞生以来,全息摄影已有近 70 年的历史。
2018 年,美国相机公司 RED 推出了世界上首款全息投影智能手机;2019 年,韩国三星公司发布了一项全息投影专利,该技术可以应用于智能手机、智能音箱等设备,将天气、时间等信息通过全息投影在空中呈现,具有十足的科技感。
但是,由于传统的全息视频显示器存在光学器件视角狭窄、所需光学系统庞大以及需要强大的计算能力等问题,全息动态视频目前尚未大规模应用于商业领域。
近日,发表在《自然-通讯》( )杂志上的一项研究提出了一款超薄交互式全息显示屏,可以实现让观众从多个角度观看高分辨率的 3D 视频,该技术有望让全息视频显示屏更好地集成到移动设备中。
(来源: )
研究人员采用特殊的背景光和光摆动机制,将 3D 视频的观看角度增加了 30 倍,并实现了总厚度小于 10 厘米的超薄交互式全息显示屏设计,成功投射了一个可多角度观看的全屏 4K 交互式 3D 海龟游泳视频。
神奇的全息摄影
全息摄影是指无需使用镜头即可创造出独特摄影图像的方法,这种影像的摄影记录被称为全息图(), 一词来源于希腊语,其中 “holos” 表示 “整体视图”(whole view),gram 的意思是 “书面”()。
普通的照片记录的是物体反射光强度的变化,在反射光较少的地方产生暗区,在反射光较多的地方产生亮区。然而,全息摄影不仅记录光的强度,还记录其相位或组成反射光的波阵面彼此的相干程度。
全息图以 3D 立体的方式显示物体的“整体”图,通过记录并重建从被观测物反射回来的光场,从而保留物体的深度信息,并保存多个方向上反射回来的光场。
全息图像和人的手与摄像机的距离相同,这样就提供了一种自然的深度感知,促使观察者将注意力集中在物体本身,而不是屏幕上。
全息图在艺术、科学和技术等领域都有广泛的用途。例如,在我们的信用卡和身份证上,都有全息图像,用来防止假冒;在医学影像学上,肝脏等人体器官的 3D 全息图可以为医生提供更加全方位的视角;在工业生产中,全息图可以用来检查产品上裂纹,进行产品质量控制;在艺术领域,全息图也可以一个 3D 的纯光学艺术创作空间。
之前的研究表明,全息视频系统是可以实现的。通过使用直接调制光波阵面的空间光相位调制器(SLM),可以以视频速率更新全息图。然而,使用体积较大的光学系统,仅仅能产生垂直视差的全息图。
4G、5G网络的广覆盖,让人们实现了随时随处在智能手机观看视频。然而,想要使全息摄影技术“栖身”于便携的移动设备,构建一个移动式全息视频显示器( video ),在技术上首先需要克服以下障碍:
1. 空间带宽乘积(space- ,SBP)的局限性决定了全息图像的大小和视角,当前可用的空间光相位调制器的 SBP 通常比静态全息介质的 SBP 小几百倍,只能实现小尺寸或窄视角的动态全息图。
2. 为了产生大的相干背光,需要复杂的光学组件和相当大的空间来操纵光。然而,目前在的商业化平板显示器很难在薄度上满足实现像全息显示器的要求。
3. 实时地计算全息图通常需要巨大的计算成本,并且随着 SBP 的增加,计算量也会增加。通过算法优化后,仍需要群集处理器或高性能并行处理系统,才能以视频帧速率计算高质量的全息图。
有史以来最大视角的动态全息图
这项研究首次演示了实时交互式超薄全息视频显示,通过引入由相干BLU(C-BLU)和光束偏转器(BD)组成的转向背光单元(S-BLU),使有效 SBP 比原始值增加了 30 倍,实现了有史以来最大视角的动态全息图。
图 | 全息视频处理器示意图及其光学架构和关键部件:a. 光学架构由光束偏转器、相干-背光单元、几何相位透镜和空间光调制器组成;b. 光束偏转器的原理,它像棱镜一样对透射光进行光学引导:垂直和水平相位阵列引导光的角度分辨率为 0.02,在波长为 520nm 时,引导光的角度分辨率可达~15;c. 利用波导配置相干-背光单元:红光和绿光的第一波导和蓝光的第二波导叠加在一起,提高整体效率;d. 全息视频处理器在单片 FPGA 上实现。(来源: )
S-BLU 是扩大全息显示器视角的关键组件。在传统的光束转向中,受集光率限制,最大转向角会随着光源面积的增加而减小。而这项研究所设计的全息视频系统中,研究人员通过使用 C-BLU 的波导结构,成功解决了集光率问题。
小视角的一个缺点是观看距离长,研究人员通过使用焦距为 1 m 的镜头,使观看距离减少了 25 倍。
对于实时交互式全息视频的显示,往往需要精准计算观看者眼镜的位置来更新 3D 图像,利用图层法,使用大量的二维逆快速傅里叶逆变换(2D IFFT)运算,才可为真实场景生成高质量的全息图。
在这项研究中,研究人员使用了高度并行的体系结构,并减少硬件的使用,构建了基于 IFFT 的全息视频处理器。该处理器可以同时计算左右眼的两个全息图像,最后组合成一个全息图。
该全息视频处理器采用单芯片 FPGA 构建,可以实现以每秒 30 帧(fps)的速度生成 3840*2160 像素的双目全息彩色图像。研究人员成功投射了一个可多角度观看的全屏 4K 交互式 3D 海龟游泳视频。
轻轻动一动手指控制键盘,视频中的海龟就可以沿任何方向转动,这也证明了使用该全息视频处理器可以对动态全息图像进行实时更新。
该研究使用 10.1 英寸超高清商用液晶显示器实现了世界上第一个超薄全彩色全息视频显示,而且该全息视频处理器可以轻松嵌入到智能手机应用处理器中。
在佩戴 3D 眼镜观看电影后,人们往往会出现视觉疲劳感。全息显示屏能在空间中创建 3D 图像,让观众在多维度观看真实物体的同时,眼睛不会有疲劳感。该系统在设计中同时计算了左右眼的两个全息图像,进一步降低了观看者的视频不适感。
研究人员表示,这一研究成果将有力推动移动全息视频的发展。或许在不久的将来,科幻影片里的场景或许就会出现在我们的生活中,拿出我们的智能手机,一部 3D 全息视频就可以轻松上演。
(物联网)