最近因为自己实验需要配置一个3D相机,安装在机械臂上实现eye in arm的自动化引导过程,调研结果记录如下:
3D相机又称为深度相机,即通过该相机能检测出拍摄空间的景深距离(与普通相机(2D的最大区别))。
普通彩色相机(2D相机)拍摄到的图片能将看到相机视角内的所有物体记录下来,但是其记录的数据不包含这些物体离相机的距离,我们仅仅是通过图像的语义分析来判断出哪些物体离我们比较远,哪些物体比较近,只是没有具体的数据表示。而3D相机通过获取到的数据,我们可以准确知道图像中每个点离摄像头的距离,这样再加上该点在2d图像中的(x,y坐标),我们就能获取图像中每个点的三维空间坐标,通过三维坐标就能还原真实场景,实现场景的建模等操作。
课外扩展:我们的眼睛就是一个天然的3D相机,这主要是由于偏光原理,当人眼在看任何物体时,由于两只眼睛在空间有一定间距约为5cm,即存在两个视角,这样形成左右两眼所看到的图像不完全一样,称为视差。这种细微的视差通过视网膜传递到大脑,就能显示出物体的前后远近产生强烈的立体感。因此根据这一奇妙现象,人类就通过两个一定距离的普通摄像头来模拟人眼获取3D数据。这就是最初的双目立体相机,鉴于双目相机的一些缺陷,后来人们又发明了结构光和TOF方法来获取3D数据。(目前3D相机方案就是这三种)
目前主流的深度探测技术是结构光,TOF,和双目。
(1)结构光(Structured-light):
结构光通过采用特定波长的不可见的红外激光作为光源,他发射出来的光经过一定的编码投影在物