WIFI芯片,结构光和ToF

https://www.sohu.com/a/315828105_505897

芯片

http://www.openedv.com/forum.php?mod=viewthread&tid=284851

https://www.espressif.com/zh-hans/products/socs/esp8266/overview


1. SLAM技术

 SLAM(Simultaneous Localization and Mapping)

同步定位与地图构建,最早在机器人领域提出,它指的是:机器人从未知环境的未知地点出发,在运动过程中通过重复观测到的环境特征定位自身位置和姿态,再根据自身位置构建周围环境的增量式地图,从而达到同时定位和地图构建的目的。由于SLAM的重要学术价值和应用价值,一直以来都被认为是实现全自主移动机器人的关键技术。

通俗的来讲,SLAM回答两个问题:“我在哪儿?”“我周围是什么?”,就如同人到了一个陌生环境中一样,SLAM试图要解决的就是恢复出观察者自身和周围环境的相对空间关系,“我在哪儿”对应的就是定位问题,而“我周围是什么”对应的就是建图问题,给出周围环境的一个描述。回答了这两个问题,其实就完成了对自身和周边环境的空间认知。有了这个基础,就可以进行路径规划去达要去的目的地,在此过程中还需要及时的检测躲避遇到的障碍物,保证运行安全。

2. SLAM发展简介

自从上世纪80年代SLAM概念的提出到现在,SLAM技术已经走过了30多年的历史。SLAM系统使用的传感器在不断拓展,从早期的声呐,到后来的2D/3D激光雷达,再到单目、双目、RGBD、ToF等各种相机,以及与惯性测量单元IMU等传感器的融合;SLAM的算法也从开始的基于滤波器的方法(EKF、PF等)向基于优化的方法转变,技术框架也从开始的单一线程向多线程演进。

VSLAM

 基于视觉的Visual SLAM逐渐开始崭露头角,简称VSLAM。

VSLAM的技术框架主要包括传感器数据预处理、前端、后端、回环检测、建图。

摄像头

ToF结构光、双目视觉技术(StereoVision)一起,共同组成了当前3D摄像头的三条主流技术路线。

3D结构光(Structured Light)

3D结构光技术的基本原理是,通过近红外激光器,将具有一定结构特征的光线投射到被拍摄物体上,再由专门的红外摄像头进行采集。这种具备一定结构的光线,会因被摄物体的不同深度区域,而采集不同的图像相位信息,然后通过运算单元将这种结构的变化换算成深度信息,以此来获得三维结构。简单来说就是,通过光学手段获取被拍摄物体的三维结构,再将获取到的信息进行更深入的应用。


ToF(Time Of Flight) 

手机摄像头中的飞行时间(TimeofFlight,ToF)技术

http://www.moqiehome.net/news/3067.html

简单来说就是,发出一道经过处理的光,碰到物体以后会反射回来,捕捉来回的时间,因为已知光速和调制光的波长,所以能快速准确计算出到物体的距离。

3D结构光和ToF优缺点总结

--结构光ToF
基础原理 单相机和投影条纹斑点编码 红外光反射时间差
响应时间
低光环境表现 良好,取决于光源 良好(红外激光)
强光环境变现 中等
深度精确度 中等
分辨率 中等
识别距离 短,受光斑图案影响 中等(1-10m),受光源强度限制
软件复杂度 中等 中等
材料成本 中等
功耗 中等
缺点 容易受光照影响 总体性能好、平面分辨率低
代表厂商 iPhone X、Prime Sense、英特尔 英飞凌、微软、意法半导体


参考:
原文地址:https://www.cnblogs.com/developer-qin/p/13024071.html