NRI: Collaborative Research: Task Dependent Semantic Modeling for Robot Perception

NRI:协作研究:机器人感知的任务相关语义建模

基本信息

项目摘要

The research in this project enables robots to better deal with the complex cluttered environments around us, ranging from open scenes to cluttered table-top settings and to perform the basic mapping, navigation, object search so as to enable fetch and delivery tasks most commonly required in service co-robotics applications. The key contribution of the project is to develop visual perception systems for robots that can understand the semantic labels of the visual world at multiple levels of specificity as required by particular robot tasks or human-robot interaction. In addition, the project enables robot perception systems to better understand new, previously unseen, environments through automatically adapting existing learned models, and by actively choosing how to best explore and recognize novel visual spaces and objects. The datasets and benchmarks, as well as the developed models, form basis for more rapid progress on semantic visual perception for robotics.The development of methodologies for learning compositional representations which enable active learning and efficient inference is a long standing problem in computer vision and robot perception. Guided by the constraints of indoors and outdoors environments, we plan to exploit large amounts of data, strong geometric and semantic priors and develop novel representations of objects and scenes. The developed representations are captured by compositional structured probabilistic models including deep convolutional networks. Doing this rapidly is required to support active visual exploration to improve semantic parsing of a space. Furthermore the project team collects and disseminates a large dataset of densely sampled RGBD imagery to support offline evaluation and benchmarking of active vision for semantic parsing. The project can result in advances in active hierarchical semantic vision for robot tasks including exploration, search, manipulation, programming by example, and generally for human-robot interaction.
该项目的研究使机器人能够更好地处理我们周围复杂杂乱的环境,从开放的场景到杂乱的桌面设置,并执行基本的映射,导航,对象搜索,以便实现服务合作机器人应用中最常见的获取和交付任务。 该项目的主要贡献是为机器人开发视觉感知系统,该系统可以根据特定机器人任务或人机交互的要求,在多个特定级别上理解视觉世界的语义标签。 此外,该项目使机器人感知系统能够通过自动适应现有的学习模型,并通过主动选择如何最好地探索和识别新的视觉空间和物体,更好地理解新的,以前看不见的环境。 数据集和基准,以及开发的模型,形成的基础上更快的进展语义视觉感知robotics.The发展的方法学习组合表示,使主动学习和有效的推理是一个长期存在的问题,在计算机视觉和机器人感知。在室内和室外环境的约束下,我们计划利用大量的数据,强大的几何和语义先验知识,并开发新的对象和场景表示。所开发的表示由包括深度卷积网络的组合结构概率模型捕获。需要快速完成此操作以支持主动视觉探索,从而改进空间的语义解析。 此外,项目团队收集和传播了大量密集采样的RGBD图像数据集,以支持离线评估和语义解析主动视觉基准测试。 该项目可以导致机器人任务的主动分层语义视觉的进步,包括探索,搜索,操纵,编程的例子,并通常用于人机交互。

项目成果

期刊论文数量(0)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ monograph.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ sciAawards.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ conferencePapers.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ patent.updateTime }}

Alexander Berg其他文献

Cuticular hydrocarbons on old museum specimens of the spiny mason wasp, Odynerus spinipes (Hymenoptera: Vespidae: Eumeninae), shed light on the distribution and on regional frequencies of distinct chemotypes
旧博物馆多刺石蜂 Odynerus spinipes(膜翅目:胡蜂科:胡蜂亚科)标本上的表皮碳氢化合物揭示了不同化学型的分布和区域频率
  • DOI:
  • 发表时间:
    2020
  • 期刊:
  • 影响因子:
    1.8
  • 作者:
    V. Moris;Katharina Christmann;Aline Wirtgen;S. Belokobylskij;Alexander Berg;W. Liebig;Villu Soon;H. Baur;T. Schmitt;O. Niehuis
  • 通讯作者:
    O. Niehuis
Time delay and evidence profiles forming clinical recommendations of US surgical society guidelines
美国外科学会指南形成临床推荐意见过程中的时间延迟与证据概况
  • DOI:
    10.1016/j.surg.2024.10.007
  • 发表时间:
    2025-02-01
  • 期刊:
  • 影响因子:
    2.700
  • 作者:
    Alexander Berg;Nam Yong Cho;Kaustav Chattopadhyay;Sachin Narayan;Jude Alawa;David A. Spain;Jeff Choi
  • 通讯作者:
    Jeff Choi
Miasma und Kontagium Die Lehre von der Ansteckung im Wandel der Zeiten
  • DOI:
    10.1007/bf01178592
  • 发表时间:
    1963-06-01
  • 期刊:
  • 影响因子:
    2.100
  • 作者:
    Alexander Berg
  • 通讯作者:
    Alexander Berg
Die Lehre von der Faser als Form- und Funktionselement des Organismus
  • DOI:
    10.1007/bf02593519
  • 发表时间:
    1942-11-01
  • 期刊:
  • 影响因子:
    3.100
  • 作者:
    Alexander Berg
  • 通讯作者:
    Alexander Berg
Erratum to: Strategies to obtain pattern fidelity in nanowire growth from large-area surfaces patterned using nanoimprint lithography
勘误:关于从使用纳米压印光刻技术图案化的大面积表面进行纳米线生长以获得图案保真度的策略
  • DOI:
    10.1007/s12274-016-1379-0
  • 发表时间:
    2017-01-27
  • 期刊:
  • 影响因子:
    9.000
  • 作者:
    Gaute Otnes;Magnus Heurlin;Mariusz Graczyk;Jesper Wallentin;Daniel Jacobsson;Alexander Berg;Ivan Maximov;Magnus T. Borgström
  • 通讯作者:
    Magnus T. Borgström

Alexander Berg的其他文献

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

{{ truncateString('Alexander Berg', 18)}}的其他基金

XPS: FULL: DSD: Collaborative Research: FPGA Cloud Platform for Deep Learning, Applications in Computer Vision
XPS:完整:DSD:协作研究:深度学习 FPGA 云平台、计算机视觉应用
  • 批准号:
    1533771
  • 财政年份:
    2015
  • 资助金额:
    $ 26.95万
  • 项目类别:
    Standard Grant
CAREER: Situated Recognition: Learning to understand our local visual environment
职业:情境识别:学习了解我们当地的视觉环境
  • 批准号:
    1452851
  • 财政年份:
    2015
  • 资助金额:
    $ 26.95万
  • 项目类别:
    Standard Grant

相似海外基金

NRI/Collaborative Research: Robotic Disassembly of High-Precision Electronic Devices
NRI/合作研究:高精度电子设备的机器人拆卸
  • 批准号:
    2422640
  • 财政年份:
    2024
  • 资助金额:
    $ 26.95万
  • 项目类别:
    Standard Grant
NRI/Collaborative Research: Robust Design and Reliable Autonomy for Transforming Modular Hybrid Rigid-Soft Robots
NRI/合作研究:用于改造模块化混合刚软机器人的稳健设计和可靠自主性
  • 批准号:
    2327702
  • 财政年份:
    2023
  • 资助金额:
    $ 26.95万
  • 项目类别:
    Standard Grant
Collaborative Research: NRI: Understanding Underlying Risks and Sociotechnical Challenges of Powered Wearable Exoskeleton to Construction Workers
合作研究:NRI:了解建筑工人动力可穿戴外骨骼的潜在风险和社会技术挑战
  • 批准号:
    2410255
  • 财政年份:
    2023
  • 资助金额:
    $ 26.95万
  • 项目类别:
    Standard Grant
NRI: FND: Collaborative Research: DeepSoRo: High-dimensional Proprioceptive and Tactile Sensing and Modeling for Soft Grippers
NRI:FND:合作研究:DeepSoRo:软抓手的高维本体感受和触觉感知与建模
  • 批准号:
    2348839
  • 财政年份:
    2023
  • 资助金额:
    $ 26.95万
  • 项目类别:
    Standard Grant
Collaborative Research: NRI: Reducing Falling Risk in Robot-Assisted Retail Environments
合作研究:NRI:降低机器人辅助零售环境中的跌倒风险
  • 批准号:
    2132936
  • 财政年份:
    2022
  • 资助金额:
    $ 26.95万
  • 项目类别:
    Standard Grant
NRI/Collaborative Research: Robust Design and Reliable Autonomy for Transforming Modular Hybrid Rigid-Soft Robots
NRI/合作研究:用于改造模块化混合刚软机器人的稳健设计和可靠自主性
  • 批准号:
    2133019
  • 财政年份:
    2022
  • 资助金额:
    $ 26.95万
  • 项目类别:
    Standard Grant
Collaborative Research: NRI: Remotely Operated Reconfigurable Walker Robots for Eldercare
合作研究:NRI:用于老年护理的远程操作可重构步行机器人
  • 批准号:
    2133075
  • 财政年份:
    2022
  • 资助金额:
    $ 26.95万
  • 项目类别:
    Standard Grant
Collaborative Research: NRI: Smart Skins for Robotic Prosthetic Hand
合作研究:NRI:机器人假手智能皮肤
  • 批准号:
    2221479
  • 财政年份:
    2022
  • 资助金额:
    $ 26.95万
  • 项目类别:
    Standard Grant
Collaborative Research: NRI: Integration of Autonomous UAS in Wildland Fire Management
合作研究:NRI:自主无人机在荒地火灾管理中的整合
  • 批准号:
    2132798
  • 财政年份:
    2022
  • 资助金额:
    $ 26.95万
  • 项目类别:
    Standard Grant
NRI/Collaborative Research: Robot-Assisted Feeding: Towards Efficient, Safe, and Personalized Caregiving Robots
NRI/合作研究:机器人辅助喂养:迈向高效、安全和个性化的护理机器人
  • 批准号:
    2132847
  • 财政年份:
    2022
  • 资助金额:
    $ 26.95万
  • 项目类别:
    Standard Grant
{{ showInfoDetail.title }}

作者:{{ showInfoDetail.author }}

知道了