泡泡一分钟:GEN-SLAM

张宁  GEN-SLAM - Generative Modeling for Monocular Simultaneous Localization and Mapping

GEN-SLAM  - 单目同时定位和建图的生成模型
https://arxiv.org/abs/1902.02086

Punarjay Chakravarty, Praveen Narayanan and Tom Roussel

Abstract—We present a Deep Learning based system for the twin tasks of localization and obstacle avoidance essential to any mobile robot. Our system learns from conventional geometric SLAM, and outputs, using a single camera, the topological pose of the camera in an environment, and the depth map of obstacles around it. We use a CNN to localize in a topological map, and a conditional VAE to output depth for a camera image, conditional on this topological location estimation. We demonstrate the effectiveness of our monocular localization and depth estimation system on simulated and real datasets.

我们提出了一个基于深度学习的系统,用于任何移动机器人必不可少的定位和避障的双重任务。我们的系统从传统的几何SLAM中学习,并使用单个摄像机输出摄像机在环境中的拓扑姿势,以及周围障碍物的深度图。我们使用CNN来定位拓扑图,并使用条件VAE来输出相机图像的深度,条件是这个拓扑位置估计。我们证明了我们的单目定位和深度估计系统对模拟和真实数据集的有效性。

移动机器人需要解决定位并估计到周围各种障碍物的距离的双重任务,以规划通过环境的无碰撞路径。我们提出了一种基于深度学习的模型,该模型仅使用单目视觉解决了这两项任务。我们的深度生成模型使用传统的视觉SLAM进行训练,并且在测试时,接收RGB图像,输出其拓扑姿势,并且还根据该姿势生成该图像的深度图。这种系统可以用于需要具有廉价感测的多个机器人的操作的环境中。一个工厂环境,比如一个电子商务巨头的完善中心,拥有数十万平方米的货架和库存,以及用于移动箱子的机器人,可以使用深度感应和传统的几何SLAM进行一次建图,这个地图可以用来训练我们的模型。随后,数百台带有单个低成本相机作为传感器的机器人可以使用这种训练有素的模型来感知和导航工厂。

原文地址:https://www.cnblogs.com/feifanrensheng/p/11333402.html