Collaborative Research: NRI: FND: Learning Graph Neural Networks for Multi-Object Manipulation

合作研究:NRI:FND:学习多对象操作的图神经网络

基本信息

  • 批准号:
    2024778
  • 负责人:
  • 金额:
    $ 34.43万
  • 依托单位:
  • 依托单位国家:
    美国
  • 项目类别:
    Standard Grant
  • 财政年份:
    2020
  • 资助国家:
    美国
  • 起止时间:
    2020-10-01 至 2024-09-30
  • 项目状态:
    已结题

项目摘要

For robots to act as ubiquitous assistants in daily life, they must regularly contend with environments involving many objects and objects built of many constituent parts. Current robotics research focuses on providing solutions to isolated manipulation tasks, developing specialized representations that do not readily work across tasks. This project seeks to enable robots to learn to represent and understand the world from multiple sensors, across many manipulation tasks. Specifically, the project will examine tasks in heavily cluttered environments that require multiple distinct picking and placing actions. This project will develop autonomous manipulation methods suitable for use in robotic assistants. Assistive robots stand to make a substantial impact in increasing the quality of life of older adults and persons with certain degenerative diseases. These methods also apply to manipulation in natural or man-made disasters areas, where explicit object models are not available. The tools developed in this project can also improve robot perception, grasping, and multi-step manipulation skills for manufacturing.With their ability to learn powerful representations from raw perceptual data, deep neural networks provide the most promising framework to approach key perceptual and reasoning challenges underlying autonomous robot manipulation. Despite​ ​their success, existing approaches scale poorly to the diverse set of scenarios autonomous robots will handle in natural environments. These current limitations of neural networks arise from being trained on isolated tasks, use of different architectures for different problems, and inability to scale to complex scenes containing a varying or large number of objects. This project hypothesizes that graph neural networks provide a powerful framework that can encode multiple sensor streams over time to provide robots with rich and scalable representations for multi-object and multi-task perception and manipulation. This project examines a number of extensions to graph neural networks in order to address current limitations for their use in autonomous manipulation. Furthermore this project examines novel ways of leveraging learned graph neural networks for manipulation planning and control in clutter and for multi-step, multi-object manipulation tasks. In order to train these large-scale graph net representations this project will use extremely large scale, physically accurate, photo-realistic simulation. All perceptual and behavior generation techniques developed in this project will be experimentally validated on a set of challenging real-world manipulation tasks.This award reflects NSF's statutory mission and has been deemed worthy of support through evaluation using the Foundation's intellectual merit and broader impacts review criteria.
机器人要想在日常生活中充当无处不在的助手,就必须经常与涉及许多物体和由许多组成部分构成的物体的环境作斗争。目前的机器人研究集中在为孤立的操作任务提供解决方案,开发不容易跨任务工作的专门表示。该项目旨在使机器人能够学习通过多个传感器来表示和理解世界,并完成许多操作任务。具体来说,该项目将检查在严重混乱的环境中,需要多个不同的拾取和放置动作的任务。该项目将开发适用于机器人助手的自主操作方法。辅助机器人将对提高老年人和患有某些退行性疾病的人的生活质量产生重大影响。这些方法也适用于自然或人为灾害地区的操纵,在那里没有明确的对象模型。该项目开发的工具还可以提高机器人的感知、抓取和多步操作技能,以用于制造。凭借从原始感知数据中学习强大表征的能力,深度神经网络为解决自主机器人操作的关键感知和推理挑战提供了最有前途的框架。尽管 尽管现有的方法取得了成功,但它们在自动机器人将在自然环境中处理的各种场景中的规模很小。神经网络目前的这些局限性来自于在孤立的任务上进行训练,针对不同的问题使用不同的架构,以及无法扩展到包含不同或大量对象的复杂场景。该项目假设图神经网络提供了一个强大的框架,可以随着时间的推移对多个传感器流进行编码,为机器人提供丰富且可扩展的多对象和多任务感知和操纵表示。该项目研究了一些扩展到图形神经网络,以解决目前的限制,他们在自主操作中的使用。此外,该项目还研究了利用学习图神经网络进行操作规划和控制以及多步骤,多对象操作任务的新方法。为了训练这些大规模的图形网络表示,该项目将使用超大规模,物理精确,照片般逼真的模拟。该项目中开发的所有感知和行为生成技术将在一系列具有挑战性的现实世界操纵任务上进行实验验证。该奖项反映了NSF的法定使命,并通过使用基金会的知识价值和更广泛的影响审查标准进行评估,被认为值得支持。

项目成果

期刊论文数量(5)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)
Toward Learning Context-Dependent Tasks from Demonstration for Tendon-Driven Surgical Robots
从肌腱驱动手术机器人的演示中学习上下文相关的任务
Latent Space Planning for Unobserved Objects with Environment-Aware Relational Classifiers
使用环境感知关系分类器对未观察到的对象进行潜在空间规划
Learning Visual Shape Control of Novel 3D Deformable Objects from Partial-View Point Clouds
Planning for Multi-Object Manipulation with Graph Neural Network Relational Classifiers
DeformerNet: A Deep Learning Approach to 3D Deformable Object Manipulation
DeformerNet:3D 可变形对象操纵的深度学习方法
{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ monograph.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ sciAawards.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ conferencePapers.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ patent.updateTime }}

Tucker Hermans其他文献

Parallelised Diffeomorphic Sampling-based Motion Planning
基于并行微分同胚采样的运动规划
  • DOI:
  • 发表时间:
    2021
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Tin Lai;Weiming Zhi;Tucker Hermans;Fabio Ramos
  • 通讯作者:
    Fabio Ramos
Representing and learning affordance-based behaviors
  • DOI:
  • 发表时间:
    2014-03
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Tucker Hermans
  • 通讯作者:
    Tucker Hermans
A model predictive approach for online mobile manipulation of non-holonomic objects using learned dynamics
使用学习动力学在线移动操作非完整对象的模型预测方法
  • DOI:
  • 发表时间:
    2019
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Roya Sabbagh Novin;A. Yazdani;A. Merryweather;Tucker Hermans
  • 通讯作者:
    Tucker Hermans
L4KDE: Learning for KinoDynamic Tree Expansion
L4KDE:KinoDynamic 树扩展的学习
  • DOI:
    10.48550/arxiv.2203.00975
  • 发表时间:
    2022
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Tin Lai;Weiming Zhi;Tucker Hermans;Fabio Ramos
  • 通讯作者:
    Fabio Ramos

Tucker Hermans的其他文献

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

{{ truncateString('Tucker Hermans', 18)}}的其他基金

Collaborative Research: CISE: Large: Executing Natural Instructions in Realistic Uncertain Worlds
合作研究:CISE:大型:在现实的不确定世界中执行自然指令
  • 批准号:
    2321852
  • 财政年份:
    2023
  • 资助金额:
    $ 34.43万
  • 项目类别:
    Continuing Grant
CAREER: Improving Multi-Fingered Manipulation by Unifying Learning and Planning
职业:通过统一学习和规划来提高多指操作能力
  • 批准号:
    1846341
  • 财政年份:
    2019
  • 资助金额:
    $ 34.43万
  • 项目类别:
    Continuing Grant
CRII: RI: Enabling Manipulation of Object Collections via Self-Supervised Robot Learning
CRII:RI:通过自监督机器人学习实现对象集合的操作
  • 批准号:
    1657596
  • 财政年份:
    2017
  • 资助金额:
    $ 34.43万
  • 项目类别:
    Standard Grant

相似国自然基金

复杂电子产品超精密加工及检测关键技术研究与应用
  • 批准号:
  • 批准年份:
    2025
  • 资助金额:
    0.0 万元
  • 项目类别:
    省市级项目
基于合成生物学的动物底盘品种优化及中试应用研究
  • 批准号:
  • 批准年份:
    2025
  • 资助金额:
    0.0 万元
  • 项目类别:
    省市级项目
运用组学整合技术探索萆薢分清散联合化疗治疗晚期胰腺癌的临床研究
  • 批准号:
  • 批准年份:
    2025
  • 资助金额:
    0.0 万元
  • 项目类别:
    省市级项目
九里香等提取物多靶向制剂抗肺癌的作用及机制研究
  • 批准号:
  • 批准年份:
    2025
  • 资助金额:
    0.0 万元
  • 项目类别:
    省市级项目
升血小板方治疗原发免疫性血小板减少症的临床研究
  • 批准号:
  • 批准年份:
    2025
  • 资助金额:
    0.0 万元
  • 项目类别:
    省市级项目
八髎穴微波热疗在女性膀胱过度活动症治疗中的价值研究
  • 批准号:
  • 批准年份:
    2025
  • 资助金额:
    0.0 万元
  • 项目类别:
    省市级项目
基于 miR-455-5p 介导的氧化应激机制探讨糖尿病视网膜病变中医分型治疗的临床研究
  • 批准号:
  • 批准年份:
    2025
  • 资助金额:
    0.0 万元
  • 项目类别:
    省市级项目
基于 UPLC-Q-TOF-MS/MS 分析的 异功散活性成分评价及提取工艺研究
  • 批准号:
  • 批准年份:
    2025
  • 资助金额:
    0.0 万元
  • 项目类别:
    省市级项目
无创电针对于痉挛型双瘫脑 瘫患儿的有效性与安全性研究:一项随机 单盲前瞻性队列研究
  • 批准号:
  • 批准年份:
    2025
  • 资助金额:
    0.0 万元
  • 项目类别:
    省市级项目
弹压式手法与体外冲击波治疗肱骨外上髁炎的对比研究
  • 批准号:
  • 批准年份:
    2025
  • 资助金额:
    0.0 万元
  • 项目类别:
    省市级项目

相似海外基金

NRI/Collaborative Research: Robotic Disassembly of High-Precision Electronic Devices
NRI/合作研究:高精度电子设备的机器人拆卸
  • 批准号:
    2422640
  • 财政年份:
    2024
  • 资助金额:
    $ 34.43万
  • 项目类别:
    Standard Grant
NRI/Collaborative Research: Robust Design and Reliable Autonomy for Transforming Modular Hybrid Rigid-Soft Robots
NRI/合作研究:用于改造模块化混合刚软机器人的稳健设计和可靠自主性
  • 批准号:
    2327702
  • 财政年份:
    2023
  • 资助金额:
    $ 34.43万
  • 项目类别:
    Standard Grant
Collaborative Research: NRI: Understanding Underlying Risks and Sociotechnical Challenges of Powered Wearable Exoskeleton to Construction Workers
合作研究:NRI:了解建筑工人动力可穿戴外骨骼的潜在风险和社会技术挑战
  • 批准号:
    2410255
  • 财政年份:
    2023
  • 资助金额:
    $ 34.43万
  • 项目类别:
    Standard Grant
NRI: FND: Collaborative Research: DeepSoRo: High-dimensional Proprioceptive and Tactile Sensing and Modeling for Soft Grippers
NRI:FND:合作研究:DeepSoRo:软抓手的高维本体感受和触觉感知与建模
  • 批准号:
    2348839
  • 财政年份:
    2023
  • 资助金额:
    $ 34.43万
  • 项目类别:
    Standard Grant
Collaborative Research: NRI: Reducing Falling Risk in Robot-Assisted Retail Environments
合作研究:NRI:降低机器人辅助零售环境中的跌倒风险
  • 批准号:
    2132936
  • 财政年份:
    2022
  • 资助金额:
    $ 34.43万
  • 项目类别:
    Standard Grant
NRI/Collaborative Research: Robust Design and Reliable Autonomy for Transforming Modular Hybrid Rigid-Soft Robots
NRI/合作研究:用于改造模块化混合刚软机器人的稳健设计和可靠自主性
  • 批准号:
    2133019
  • 财政年份:
    2022
  • 资助金额:
    $ 34.43万
  • 项目类别:
    Standard Grant
Collaborative Research: NRI: Remotely Operated Reconfigurable Walker Robots for Eldercare
合作研究:NRI:用于老年护理的远程操作可重构步行机器人
  • 批准号:
    2133075
  • 财政年份:
    2022
  • 资助金额:
    $ 34.43万
  • 项目类别:
    Standard Grant
Collaborative Research: NRI: Smart Skins for Robotic Prosthetic Hand
合作研究:NRI:机器人假手智能皮肤
  • 批准号:
    2221479
  • 财政年份:
    2022
  • 资助金额:
    $ 34.43万
  • 项目类别:
    Standard Grant
Collaborative Research: NRI: Integration of Autonomous UAS in Wildland Fire Management
合作研究:NRI:自主无人机在荒地火灾管理中的整合
  • 批准号:
    2132798
  • 财政年份:
    2022
  • 资助金额:
    $ 34.43万
  • 项目类别:
    Standard Grant
NRI/Collaborative Research: Robot-Assisted Feeding: Towards Efficient, Safe, and Personalized Caregiving Robots
NRI/合作研究:机器人辅助喂养:迈向高效、安全和个性化的护理机器人
  • 批准号:
    2132847
  • 财政年份:
    2022
  • 资助金额:
    $ 34.43万
  • 项目类别:
    Standard Grant
{{ showInfoDetail.title }}

作者:{{ showInfoDetail.author }}

知道了