[顶会论文]:ICRA2019 机器人学习相关论文汇总

1.High-Fidelity Grasping in Virtual Reality Using Glove-Based System

基于手套的系统在虚拟现实中的高保真抓取

2. Unsupervised Out-Of-Context Action Understanding

无监督的上下文外动作理解

3. Multi-Modal Geometric Learning for Grasping and Manipulation

掌握和操纵的多模态几何学习

4. RoPose-Real - Real World Dataset Acquisition for Data-Driven Industrial Robot Arm Pose Estimation

RoPose-Real-用于数据驱动的工业机器人手臂姿势估计的现实世界数据集获取

5.Efficient Obstacle Rearrangement for Object Manipulation Tasks in Cluttered Environments

杂乱环境中对象操纵任务的有效障碍物重排

6.Leveraging Temporal Reasoning for Policy Selection in Learning from Demonstration

在示范学习中利用时间推理进行政策选择

7. Visual Repetition Sampling for Robot Manipulation Planning

用于机器人操纵计划的视觉重复采样

8. Interactive Open-Ended Object Affordance and Grasp Learning for Robotic Manipulation

机器人操作的交互式开放式对象负担和掌握学习

9. Augmented Reality Assisted Instrument Insertion and Tool Manipulation for the First Assistant in Robotic Surgery

机器人手术第一助手的增强现实辅助器械插入和工具操纵

10.Automated Models of Human Everyday Activity Based on Game and Virtual Reality Technology

基于游戏和虚拟现实技术的人类日常活动自动化模型

11. One-Shot Learning of Multi-Step Tasks from Observation Via Activity Localization in Auxiliary Video

通过观察辅助视频中的活动本地化一键式学习多步骤任务

12. Learning Primitive Skills for Mobile Robots

学习移动机器人的原始技能

13. Spatio-Temporal Representation for Long-Term Anticipation of Human Presence in Service Robotics

服务机器人中人类存在的长期预期的时空表示

14. Vision-Based Teleoperation of Shadow Dexterous Hand Using End-To-End Deep Neural Network

端到端深度神经网络基于视觉的灵巧手的远距离操作

15. Formal Policy Learning from Demonstrations for Reachability Properties

从可达性演示中学习正式政策

 16. Adapting Everyday Manipulation Skills to Varied Scenario

使日常操作技能适应各种情况

17. CARA System Architecture - a Click and Assemble Robotic Assembly System

CARA系统架构-一键组装机器人组装系统

18. HG-DAgger - Interactive Imitation Learning with Human Experts

HG-DAgger-与人类专家进行互动模仿学习

19. End-User Robot Programming Using Mixed Reality

使用混合现实的最终用户机器人编程

20. Learning from Demonstration in the Wild

向野外示范学习

21. Learning Probabilistic Multi-Modal Actor Models for Vision-Based Robotic Grasping

学习基于视觉的机器人抓取的概率多模态演员模型

22. A Unified Closed-Loop Motion Planning Approach for an I-AUV in Cluttered Environment with Localization Uncertainty

具有局部不确定性的杂物环境下I-AUV的统一闭环运动规划方法

23. A Framework for Robot Manipulation - Skill Formalism Meta Learning and Adaptive Control

机器人操纵框架-技能形式主义元学习和自适应控制

24. RoboCSE - Robot Common Sense Embedding

 RoboCSE-机器人常识嵌入

摘要:自主服务机器人需要计算框架,该计算框架允许它们以对不确定性建模的方式将知识推广到新情况,同时扩展到实际问题的规模。机器人常识嵌入(RoboCSE)展示了一类计算框架,即多关系嵌入,但尚未在机器人学中用于建模语义知识。我们在现实的家庭环境模拟器(AI2Thor)上对RoboCSE进行了验证,以衡量它对有关物资,位置和材料的学习知识的概括程度。我们的实验表明,与使用诸如Word2Vec之类的预训练嵌入的基线相比,RoboCSE可以更好地进行预测,从而在统计上取得显着改善,同时使用的内存比我们的贝叶斯逻辑网络基线要少几个数量级。此外,我们证明了RoboCSE所做的预测对于减少可用于训练的数据以及将域转移到MatterPort3D的能力是可靠的,与存储训练数据的基线相比,具有统计上的显着改进。

25. Quantifying the Reality Gap in Robotic Manipulation Tasks

量化机器人操纵任务中的现实差距

26. Reinforcement Learning on Variable Impedance Controller for High-Precision Robotic Assembly

高精度机器人装配中可变阻抗控制器的强化学习

27. A Learning Framework for High Precision Industrial Assembly

高精度工业装配的学习框架

28. Learning Behavior Trees from Demonstration

通过演示学习行为树

29. GraspFusion - Realizing Complex Motion by Learning and Fusing Grasp Modalities with Instance Segmentation

GraspFusion-通过学习和将抓取模态与实例分割融合来实现复杂的运动

30. Accounting for Part Pose Estimation Uncertainties During Trajectory Generation for Part Pick-Up Using Mobile Manipulators

考虑使用移动机械手的零件拾取轨迹生成过程中的零件姿势估计不确定性

31.Shallow-Depth Insertion - Peg in Shallow Hole through Robotic In-Hand Manipulation

浅深度插入-通过机械手操作在浅孔中插入钉子

32. Specifying Dual-Arm Robot Planning Problems through Natural Language and Demonstration

通过自然语言和演示来指定双手臂机器人计划问题

33. MetaGrasp - Data Efficient Grasping by Affordance Interpreter Network

数据驱动的抓取方法最近显示了巨大的进步。但是这些方法通常需要大量的训练数据。为了提高掌握数据的效率,本文提出了一种新颖的掌握训练系统,包括从数据收集到模型推理的整个流程。该系统可以利用对映抓取规则辅助​​的纠正策略来收集有效的抓取样本,并且我们设计了一个能力解释器网络来预测逐像素抓取能力图。我们将可掌握性,不可把握性和背景定义为可获取能力。我们系统的主要优势在于,在对映规则下,仅使用少量抓取样本进行训练的像素级能力解释器网络就可以在完全看不见的物体和背景上实现显着性能。训练样本仅在模拟中收集。大量的定性和定量实验证明了我们提出的方法的准确性和鲁棒性。在真实世界的抓握实验中,仅使用约6300个模拟样本,我们就可以对一组家用物品实现93%的抓取成功率,而对一组对抗性物品则达到91%的抓取成功率。在杂乱的情况下,我们还可以达到87%的准确性。尽管仅使用RGB图像对模型进行了训练,但是在更改背景纹理时,模型也表现良好,甚至可以在一组对抗对象上实现94%的精度,这优于当前的最新方法。

34. Video-Based Prediction of Hand-Grasp Preshaping with Application to Prosthesis Contro

基于视频的手抓预成型预测及其在假体控制中的应用

35. Context-Aware Modelling for Augmented Reality Display Behaviour

基于视频的手抓预成型预测及其在假体控制中的应用

37. Modeling Grasp Type Improves Learning-Based Grasp Planning

对抓取类型进行建模可改善基于学习的抓取计划

38. Learning from humans how to grasp - a data-driven architecture for autonomous grasping with anthropomorphic soft hands

向人类学习如何抓握-一种数据驱动的架构,可通过拟人化的软手进行自主抓握

39. Enabling Robots to Infer how End-Users Teach and Learn through Human-Robot Interaction

使机器人能够推断最终用户如何通过人机交互进行教学和学习

40. Learning Task Priorities from Demonstrations

通过演示学习任务优先级

41. The Task Motion Kit

任务动作套件

42. Shallow-Depth Insertion - Peg in Shallow Hole through Robotic In-Hand Manipulation

浅深度插入-通过机械手操作在浅孔中插入钉子

原文地址:https://www.cnblogs.com/feifanrensheng/p/14183109.html