NRI: Rich Task Perception for Programming by Demonstration

NRI:演示编程的丰富任务感知

基本信息

  • 批准号:
    1525251
  • 负责人:
  • 金额:
    $ 120万
  • 依托单位:
  • 依托单位国家:
    美国
  • 项目类别:
    Standard Grant
  • 财政年份:
    2015
  • 资助国家:
    美国
  • 起止时间:
    2015-09-01 至 2019-08-31
  • 项目状态:
    已结题

项目摘要

Robots that can work alongside humans and take on repetitive, time-consuming tasks could greatly improve productivity and reliability in task-oriented environments such as laboratories, manufacturing facilities, or commercial kitchens. One of the key challenges in realizing this vision is that every combination of environment, user, and task presents unique requirements for the robot's behavior and it is impractical to employ traditional approaches for programming these robots. Instead, the PIs envision robots that are programmable by their end-users in their particular operation environment and for the particular tasks they are needed for. To overcome limitations of existing approaches, the PIs propose to develop a framework for rich task perception, which is able to extract detailed task descriptions from intuitive human demonstrations. Building on recent advances in depth camera sensing, GPU-optimized visual processing, and language understanding, the proposed framework will track all objects and people in a scene, recognize their goals and task context, and parse speech to extract higher-level task structure from a demonstration. The PIs will also introduce new programming by demonstration techniques that take full advantage of such rich task information and enable users to program robots by demonstrating their desired behavior. The proposed research has the potential to advance national health, prosperity and welfare by developing research and commercial robotic systems for use in factories, laboratories, and households. It will be an enabling technology for a new generation of highly flexible robots that can be programmed on-the-job to increase the productivity of task environments, such as laboratories or manufacturing facilities. The proposed work will also promote the progress of science by enabling reliable documentation and replication of experiments performed in scientific research wet-labs. Through a new undergraduate capstone course, this project will educate students to develop and program this next generation of robots. To motivate participation in STEM careers, the PIs will demonstrate their work at yearly public outreach events at the University of Washington, and will organize a summer camp for K-16 students through the UW DawgBytes program.Co-robots that can take on repetitive, time-consuming tasks could greatly improve productivity and reliability in task-oriented environments currently occupied by human workers; such as laboratories, manufacturing facilities, or commercial kitchens. One of the key challenges in realizing this vision is that every combination of environment, user, and task presents unique requirements for the co-robot's behavior and it is impractical to employ traditional approaches for programming these robots. Instead, the PIs envision co-robots that are programmable by their end-users in their particular operation environment and for the particular tasks they are needed for. A popular end-user programming approach in robotics is Programming by Demonstration (PbD), which enables users to program robots by demonstrating their desired behavior. While state-of-the-art PbD techniques have generated impressive robotic behaviors, current approaches have limitations that prevent them from becoming practical and widely adopted. Many of these limitations are specifically related to perception, preventing robots from understanding the detailed context of human demonstrations. To overcome these limitations, The PIs propose to develop a framework for rich task perception, which is able to extract detailed task descriptions from intuitive human demonstrations. Building on recent advances in RGB-D camera sensing, GPU-optimized visual processing, and language grounding, the proposed framework will track all objects and people in a scene at a very fi ne granularity, and parse speech to extract higher-level task structure from a demonstration. The PIs will also introduce new PbD techniques that better take advantage of such rich task information both in the programming and execution of tasks.
机器人可以与人类一起工作,并承担重复,耗时的任务,可以大大提高实验室,制造设施或商业厨房等任务导向环境中的生产力和可靠性。实现这一愿景的关键挑战之一是,环境,用户和任务的每一个组合都对机器人的行为提出了独特的要求,采用传统的方法对这些机器人进行编程是不切实际的。相反,PI设想的机器人可由其最终用户在特定的操作环境中编程,并执行所需的特定任务。为了克服现有方法的局限性,PI建议开发一个框架,丰富的任务感知,这是能够提取详细的任务描述直观的人类演示。基于深度相机传感、GPU优化的视觉处理和语言理解方面的最新进展,该框架将跟踪场景中的所有对象和人员,识别他们的目标和任务上下文,并解析语音以从演示中提取更高级别的任务结构。PI还将通过演示技术引入新的编程,充分利用这些丰富的任务信息,并使用户能够通过演示其所需的行为来对机器人进行编程。拟议的研究有可能通过开发用于工厂,实验室和家庭的研究和商业机器人系统来促进国民健康,繁荣和福利。它将成为新一代高度灵活的机器人的一项使能技术,这些机器人可以在工作中编程,以提高实验室或制造设施等任务环境的生产力。拟议的工作还将促进科学的进步,使可靠的文件和复制在科学研究湿实验室进行的实验。通过一个新的本科顶点课程,该项目将教育学生开发和编程这种下一代机器人。为了激励人们参与STEM职业,PI将在华盛顿大学的年度公共宣传活动中展示他们的工作,并将通过UW Dawgarts计划为K-16学生组织一个夏令营。可以承担重复性,耗时任务的合作机器人可以大大提高目前由人类工人占据的任务导向环境中的生产力和可靠性;例如实验室、制造设施或商用厨房。实现这一愿景的关键挑战之一是,环境,用户和任务的每一个组合提出了独特的要求,合作机器人的行为,它是不切实际的,采用传统的方法来编程这些机器人。相反,PI设想的合作机器人可由其最终用户在其特定的操作环境中编程,并执行所需的特定任务。在机器人技术中,一种流行的最终用户编程方法是演示编程(PbD),它使用户能够通过演示他们想要的行为来对机器人进行编程。虽然最先进的PbD技术已经产生了令人印象深刻的机器人行为,但目前的方法存在局限性,使其无法实用和广泛采用。其中许多限制与感知有关,阻止机器人理解人类演示的详细背景。为了克服这些限制,PI建议开发一个丰富的任务感知框架,该框架能够从直观的人类演示中提取详细的任务描述。基于RGB-D相机传感、GPU优化的视觉处理和语言基础的最新进展,该框架将以非常细的粒度跟踪场景中的所有对象和人,并解析语音以从演示中提取更高级别的任务结构。PI还将引入新的PbD技术,以便在任务的编程和执行中更好地利用这些丰富的任务信息。

项目成果

期刊论文数量(2)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)
Single Modality Performance on Visual Navigation & QA
视觉导航的单一模态性能
What Should I Do Now? Marrying Reinforcement Learning and Symbolic Planning
我现在应该怎么做?
{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ monograph.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ sciAawards.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ conferencePapers.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ patent.updateTime }}

Dieter Fox其他文献

Distributed multirobot exploration, mapping, and task allocation
  • DOI:
    10.1007/s10472-009-9124-y
  • 发表时间:
    2009-03-18
  • 期刊:
  • 影响因子:
    1.000
  • 作者:
    Regis Vincent;Dieter Fox;Jonathan Ko;Kurt Konolige;Benson Limketkai;Benoit Morisset;Charles Ortiz;Dirk Schulz;Benjamin Stewart
  • 通讯作者:
    Benjamin Stewart
RVT-2: Learning Precise Manipulation from Few Demonstrations
RVT-2:从少量演示中学习精确操作
  • DOI:
  • 发表时间:
    2024
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Ankit Goyal;Valts Blukis;Jie Xu;Yijie Guo;Yu;Dieter Fox
  • 通讯作者:
    Dieter Fox
Fast Joint Space Model-Predictive Control for Reactive Manipulation
快速关节空间模型-反应操纵的预测控制
  • DOI:
  • 发表时间:
    2021
  • 期刊:
  • 影响因子:
    0
  • 作者:
    M. Bhardwaj;Balakumar Sundaralingam;Arsalan Mousavian;Nathan D. Ratliff;Dieter Fox;Fabio Ramos;Byron Boots
  • 通讯作者:
    Byron Boots
PerAct2: A Perceiver Actor Framework for Bimanual Manipulation Tasks
PerAct2:用于双手操作任务的感知者参与者框架
  • DOI:
  • 发表时间:
    2024
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Markus Grotz;Mohit Shridhar;Tamim Asfour;Dieter Fox
  • 通讯作者:
    Dieter Fox
Sonar-Based Mapping of Large-Scale Mobile Robot Environments using EM
使用 EM 基于声纳的大型移动机器人环境测绘

Dieter Fox的其他文献

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

{{ truncateString('Dieter Fox', 18)}}的其他基金

Collaborative Research: NRI: FND: Graph Neural Networks for Multi-Object Manipulation
合作研究:NRI:FND:用于多对象操作的图神经网络
  • 批准号:
    2024057
  • 财政年份:
    2020
  • 资助金额:
    $ 120万
  • 项目类别:
    Standard Grant
NRI: Collaborative Research: Experiential Learning for Robots: From Physics to Actions to Tasks
NRI:协作研究:机器人的体验式学习:从物理到动作再到任务
  • 批准号:
    1637479
  • 财政年份:
    2016
  • 资助金额:
    $ 120万
  • 项目类别:
    Standard Grant
NRI-Large: Collaborative Research: Purposeful Prediction: Co-robot Interaction via Understanding Intent and Goals
NRI-Large:协作研究:有目的的预测:通过理解意图和目标进行协作机器人交互
  • 批准号:
    1227234
  • 财政年份:
    2012
  • 资助金额:
    $ 120万
  • 项目类别:
    Continuing Grant
RI-Small: Statistical Relational Models for Semantic Robot Mapping
RI-Small:语义机器人映射的统计关系模型
  • 批准号:
    0812671
  • 财政年份:
    2008
  • 资助金额:
    $ 120万
  • 项目类别:
    Continuing Grant
Collaborative Research: BPC-A: ARTSI: Advancing Robotics Technology for Societal Impact
合作研究:BPC-A:ARTSI:推进机器人技术以产生社会影响
  • 批准号:
    0742075
  • 财政年份:
    2007
  • 资助金额:
    $ 120万
  • 项目类别:
    Continuing Grant
CAREER: Probabilistic Methods for Multi-Robot Collaboration
职业:多机器人协作的概率方法
  • 批准号:
    0093406
  • 财政年份:
    2001
  • 资助金额:
    $ 120万
  • 项目类别:
    Continuing Grant

相似国自然基金

Rich2通过调控自噬抑制炎症小体NLRP3通路在癫痫形成中的机制研 究
  • 批准号:
  • 批准年份:
    2024
  • 资助金额:
    0.0 万元
  • 项目类别:
    省市级项目
前扣带回GTP酶激活蛋白RICH2介导Shank3-/-孤独症小鼠社交行为障碍的机制研究
  • 批准号:
    82301350
  • 批准年份:
    2023
  • 资助金额:
    30 万元
  • 项目类别:
    青年科学基金项目
整合素β1/RICH1复合体感应细胞外基质硬度信号调控乳腺癌侵袭转移的机制研究
  • 批准号:
    82303462
  • 批准年份:
    2023
  • 资助金额:
    30 万元
  • 项目类别:
    青年科学基金项目
转录因子NtMYB305通过AT-rich元件调控NtPMT表达及烟碱合成的分子机制研究
  • 批准号:
  • 批准年份:
    2021
  • 资助金额:
    30 万元
  • 项目类别:
    青年科学基金项目
Rich1/Amot-p80/Merlin轴通过Hippo通路调控乳腺癌干细胞样特性的机制研究
  • 批准号:
    82002794
  • 批准年份:
    2020
  • 资助金额:
    24.0 万元
  • 项目类别:
    青年科学基金项目
烟草花叶病毒RNA发生poly(A)-rich型多聚腺苷酸化的研究
  • 批准号:
    31370181
  • 批准年份:
    2013
  • 资助金额:
    82.0 万元
  • 项目类别:
    面上项目
端粒延伸过程中C链合成(C-rich Fill-in)的分子机理
  • 批准号:
    31271472
  • 批准年份:
    2012
  • 资助金额:
    90.0 万元
  • 项目类别:
    面上项目
CA-rich顺式元件及其相互作用的反式因子对可变剪接的调控机制
  • 批准号:
    30970620
  • 批准年份:
    2009
  • 资助金额:
    32.0 万元
  • 项目类别:
    面上项目
果蝇硒蛋白G-rich的细胞定位、拓扑结构和分子功能研究
  • 批准号:
    30671176
  • 批准年份:
    2006
  • 资助金额:
    24.0 万元
  • 项目类别:
    面上项目
RICH/PHENIX相对论性重离子对撞实验中的μ子探测
  • 批准号:
    10145008
  • 批准年份:
    2001
  • 资助金额:
    8.0 万元
  • 项目类别:
    专项基金项目

相似海外基金

ART: Mining the Rich Vein of Research in Montana
艺术:挖掘蒙大拿州研究的丰富脉络
  • 批准号:
    2331325
  • 财政年份:
    2024
  • 资助金额:
    $ 120万
  • 项目类别:
    Cooperative Agreement
Role of nitrogen-rich compounds for increasing carbon sequestration in soil
富氮化合物在增加土壤固碳方面的作用
  • 批准号:
    DP240102549
  • 财政年份:
    2024
  • 资助金额:
    $ 120万
  • 项目类别:
    Discovery Projects
Efficient computational technologies to resolve the Timetree of Life: from ancient DNA to species-rich phylogenies
高效计算技术解析生命时间树:从古代 DNA 到物种丰富的系统发育
  • 批准号:
    BB/Y004132/1
  • 财政年份:
    2024
  • 资助金额:
    $ 120万
  • 项目类别:
    Research Grant
GOAL project: AI-supported self-directed learning lifestyle in data-rich educational ecosystem
GOAL 项目:数据丰富的教育生态系统中人工智能支持的自主学习生活方式
  • 批准号:
    23K25156
  • 财政年份:
    2024
  • 资助金额:
    $ 120万
  • 项目类别:
    Grant-in-Aid for Scientific Research (B)
Platelet-rich plasma (PRP) を用いた新しい人工神経による顔面神経再生
使用富含血小板血浆(PRP)的新型人工神经进行面神经再生
  • 批准号:
    24K12836
  • 财政年份:
    2024
  • 资助金额:
    $ 120万
  • 项目类别:
    Grant-in-Aid for Scientific Research (C)
PROMETHEUS: Enabling a Data Rich Additive Manufacturing Process
PROMETHEUS:实现数据丰富的增材​​制造流程
  • 批准号:
    10092251
  • 财政年份:
    2024
  • 资助金额:
    $ 120万
  • 项目类别:
    Collaborative R&D
新奇皮膚バリア因子としてのHistidine-rich glycoprotein機能評価
富含组氨酸糖蛋白作为新型皮肤屏障因子的功能评价
  • 批准号:
    24K18020
  • 财政年份:
    2024
  • 资助金额:
    $ 120万
  • 项目类别:
    Grant-in-Aid for Early-Career Scientists
リンパ脈管筋腫症病態におけるhistidine-rich glycoproteinの役割解明に関する研究
富含组氨酸糖蛋白在淋巴管平滑肌瘤病病理中作用的研究
  • 批准号:
    24K11332
  • 财政年份:
    2024
  • 资助金额:
    $ 120万
  • 项目类别:
    Grant-in-Aid for Scientific Research (C)
CAREER: Structural Implications of Anion Redox in Li-Rich Sulfide Cathodes for Li-ion Batteries
职业:锂离子电池富锂硫化物阴极中阴离子氧化还原的结构影响
  • 批准号:
    2340864
  • 财政年份:
    2024
  • 资助金额:
    $ 120万
  • 项目类别:
    Continuing Grant
CAREER: MECHANISMS OF ASSEMBLY AND COEXISTENCE IN SPECIES-RICH MICROBIAL COMMUNITIES
职业:物种丰富的微生物群落的组装和共存机制
  • 批准号:
    2236782
  • 财政年份:
    2024
  • 资助金额:
    $ 120万
  • 项目类别:
    Continuing Grant
{{ showInfoDetail.title }}

作者:{{ showInfoDetail.author }}

知道了