CHS: Small: Integrative Wide-Area Augmented Reality Scene Modeling

CHS:小型:集成广域增强现实场景建模

基本信息

  • 批准号:
    1911230
  • 负责人:
  • 金额:
    $ 49.99万
  • 依托单位:
  • 依托单位国家:
    美国
  • 项目类别:
    Continuing Grant
  • 财政年份:
    2019
  • 资助国家:
    美国
  • 起止时间:
    2019-10-01 至 2023-09-30
  • 项目状态:
    已结题

项目摘要

Augmented reality (AR) is a technology that superimposes computer-generated visual, auditory, or other sensory information onto the physical world, so that they appear to be part of the actual environment. The goal of the proposed project is to develop and evaluate new methods for creating, maintaining, and improving large-scale scene models to enable wide-area AR. For example, consider an AR application for firefighters, which superimposes predicted changes in fire perimeter and coordinated action plans to help them understand weather impact and communicate the current plan of attack. Augmented reality is characterized by the fact that these visualizations are three-dimensionally registered with the real world, keeping them matched to the physical environment in real-time even as the user moves around their environment. In order to place new virtual annotations (and to keep track of previously placed annotations), a three dimensional "scene model" that represents the physical world locations needs to be created. Ideally, this would be done on a global, world-wide scale to include all possible places where AR experiences are possible or have even already occurred. Since it is difficult for one person or organization to collect the data needed for such a wide-area scene, the developed system will aggregate crowd-sourced data of different modalities (e.g., images, videos, and 3D geometrical meshes) from multiple sources, leveraging semantic information in addition to basic image and point cloud data. By providing capabilities for remotely guiding a local AR user to capture new imagery or sensor data to achieve more accurate or complete models, crowd-sourced modeling can be directed over time to create and continuously update scene models of large-scale areas, such as a university campus or even a city. The research will result in a system that effectively integrates multiple components to provide new opportunities to remotely navigate, explore, and augment physical spaces for AR applications in government, education, industry, and consumer spaces.To accomplish the above objectives, the researchers will implement and utilize a Dynamic Hybrid Scene Model Server that accepts crowd-sourced image, video, and point cloud data, and continuously performs smart data integration and completion, leveraging machine learning approaches to infer semantic information from the raw image and point cloud data and to fill in missing information. The main challenge here will be to design the learning approaches in such a way that it will not require access to all the low-level data fusion and filtering components, simply because the information may not be available in the crowd-sourced data. Augmented Reality and Virtual Reality user interfaces will be developed and evaluated to deal with imperfect and incomplete environment models produced by the server, allowing remote users to virtually navigate through modeled spaces and to provide guidance to the local AR users. On the human interface side, the project focuses on research in remotely navigating and exploring "visual reality", virtual models of the real-world spaces created from the crowd-sourced imagery and creating content for augmenting the visual reality. The proposed methods will address limitations in current mixed reality applications in modeling and remote navigation, providing users an experience of remote visual reality that is valuable as a replacement for physical navigation, as a training aid for planned activity, and as a way to share information in augmented and virtual reality environments. The project will leverage existing work by the team of researchers and others on image-based modeling, virtual scene navigation, and virtual annotation for remote collaboration, and it focuses on both the key system components and the user experience to explicitly support navigation and augmentation.This award reflects NSF's statutory mission and has been deemed worthy of support through evaluation using the Foundation's intellectual merit and broader impacts review criteria.
增强现实(AR)是一种将计算机生成的视觉、听觉或其他感官信息叠加到物理世界上的技术,使它们看起来像是实际环境的一部分。该项目的目标是开发和评估用于创建、维护和改进大规模场景模型的新方法,以实现广域增强现实。例如,考虑一个针对消防员的AR应用程序,它叠加了火灾周边的预测变化和协调的行动计划,以帮助他们了解天气影响并传达当前的攻击计划。增强现实的特征在于,这些可视化与真实的世界三维配准,即使用户在其环境中移动,也能保持它们与物理环境实时匹配。为了放置新的虚拟注释(并跟踪先前放置的注释),需要创建表示物理世界位置的三维“场景模型”。理想情况下,这将在全球范围内完成,以包括所有可能的地方,其中AR体验是可能的,甚至已经发生。由于一个人或一个组织很难收集这种广域场景所需的数据,因此开发的系统将聚合不同模态的众包数据(例如,图像、视频和3D几何网格),利用除基本图像和点云数据之外的语义信息。通过提供远程引导本地AR用户捕获新图像或传感器数据以实现更准确或完整模型的功能,可以随着时间的推移引导众包建模以创建并不断更新大规模区域的场景模型,例如大学校园甚至城市。该研究将产生一个有效集成多个组件的系统,为政府、教育、工业和消费者领域的AR应用提供远程导航、探索和增强物理空间的新机会。为了实现上述目标,研究人员将实现并利用一个动态混合场景模型服务器,该服务器接受众包图像、视频和点云数据,并持续执行智能数据集成和完成,利用机器学习方法从原始图像和点云数据中推断语义信息并填充缺失信息。这方面的主要挑战将是设计学习方法,使其不需要访问所有低级别的数据融合和过滤组件,仅仅是因为信息可能无法在众包数据中获得。将开发和评估增强现实和虚拟现实用户界面,以处理服务器生成的不完美和不完整的环境模型,允许远程用户虚拟地浏览模型空间,并为本地AR用户提供指导。在人机界面方面,该项目侧重于远程导航和探索“视觉现实”的研究,从众包图像创建的真实世界空间的虚拟模型,以及创建增强视觉现实的内容。所提出的方法将解决当前混合现实应用在建模和远程导航方面的局限性,为用户提供远程视觉现实的体验,作为物理导航的替代品,作为计划活动的培训辅助工具,以及作为在增强和虚拟现实环境中共享信息的一种方式。该项目将利用研究人员团队和其他人在基于图像的建模,虚拟场景导航和远程协作虚拟注释方面的现有工作,该奖项反映了美国国家科学基金会的法定使命,并通过利用基金会的知识价值和更广泛的影响进行评估,被认为值得支持审查标准。

项目成果

期刊论文数量(17)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)
Investigating Search Among Physical and Virtual Objects Under Different Lighting Conditions
研究不同照明条件下物理和虚拟对象的搜索
Augmentation Strategies for Learning with Noisy Labels
The Impact of Navigation Aids on Search Performance and Object Recall in Wide-Area Augmented Reality
导航辅助对广域增强现实中的搜索性能和对象回忆的影响
Benefits of Synthetically Pre-trained Depth-Prediction Networks for Indoor/Outdoor Image Classification
Exploring the Benefits of Depth Information in Object Pixel Masking (Student Abstract)
探索深度信息在对象像素掩蔽中的好处(学生摘要)
{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ monograph.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ sciAawards.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ conferencePapers.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ patent.updateTime }}

Tobias Hollerer其他文献

Privately Evaluating Contingency Tables with Suppression
通过抑制私下评估列联表
高野山周辺の御田―真国を中心として
以新国为中心的高野山周围的大纳稻田
  • DOI:
  • 发表时间:
    2017
  • 期刊:
  • 影响因子:
    0
  • 作者:
    John O'Donovan;Shinsuke Nakajima;Tobias Hollerer;Mayumi Ueda;Yuuki Matsunami;Byungkyu Kang;森本一彦;武田昌一;森本一彦
  • 通讯作者:
    森本一彦
異なる光源環境における画像特徴の頑健性の調査
研究不同光源环境下图像特征的鲁棒性
  • DOI:
  • 发表时间:
    2015
  • 期刊:
  • 影响因子:
    0
  • 作者:
    工藤 彰;Alexander Plopski;Tobias Hollerer;間下以大;竹村 治雄;清川 清
  • 通讯作者:
    清川 清
モバイル端末のコントラスト比と水晶体白濁度による可読性への影響
移动设备对比度和镜头不透明度对可读性的影响
  • DOI:
  • 发表时间:
    2015
  • 期刊:
  • 影响因子:
    0
  • 作者:
    工藤 彰;Alexander Plopski;Tobias Hollerer;間下以大;竹村 治雄;清川 清;岩田光平,石井佑樹,小飯塚達也,松波紫草,石尾暢宏,R. Paul Lege,小嶌健仁,宮尾克
  • 通讯作者:
    岩田光平,石井佑樹,小飯塚達也,松波紫草,石尾暢宏,R. Paul Lege,小嶌健仁,宮尾克
A Cross-Cultural Analysis of Explanations for Product Reviews
产品评论解释的跨文化分析
  • DOI:
  • 发表时间:
    2016
  • 期刊:
  • 影响因子:
    0
  • 作者:
    John O'Donovan;Shinsuke Nakajima;Tobias Hollerer;Mayumi Ueda;Yuuki Matsunami;Byungkyu Kang
  • 通讯作者:
    Byungkyu Kang

Tobias Hollerer的其他文献

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

{{ truncateString('Tobias Hollerer', 18)}}的其他基金

Collaborative Research: HCC: Medium: HCI in Motion -- Using EEG, Eye Tracking, and Body Sensing for Attention-Aware Mobile Mixed Reality
合作研究:HCC:媒介:运动中的 HCI——使用 EEG、眼动追踪和身体感应实现注意力感知移动混合现实
  • 批准号:
    2211784
  • 财政年份:
    2022
  • 资助金额:
    $ 49.99万
  • 项目类别:
    Standard Grant
EAGER: Attention-Aware Mixed Reality Interfaces
EAGER:注意力感知混合现实界面
  • 批准号:
    1845587
  • 财政年份:
    2018
  • 资助金额:
    $ 49.99万
  • 项目类别:
    Standard Grant
EAGER: Large-Scale Real-Time Information Visualization on Immersive Platforms
EAGER:沉浸式平台上的大规模实时信息可视化
  • 批准号:
    1748392
  • 财政年份:
    2017
  • 资助金额:
    $ 49.99万
  • 项目类别:
    Standard Grant
EAGER: Collaborative Visualization for Knowledge Computing
EAGER:知识计算的协作可视化
  • 批准号:
    1058132
  • 财政年份:
    2010
  • 资助金额:
    $ 49.99万
  • 项目类别:
    Standard Grant
CAREER: Anywhere Augmentation: Practical Mobile Augmented Reality in Unprepared Physical Environments
职业:随时随地增强:在未准备好的物理环境中实用的移动增强现实
  • 批准号:
    0747520
  • 财政年份:
    2008
  • 资助金额:
    $ 49.99万
  • 项目类别:
    Continuing Grant
Scalable Visualization and Constrained Interaction for Large Graphs -- Supporting the Collaborative Analysis of High-dimensional Data Sets
大图的可扩展可视化和约束交互——支持高维数据集的协同分析
  • 批准号:
    0635492
  • 财政年份:
    2006
  • 资助金额:
    $ 49.99万
  • 项目类别:
    Standard Grant

相似国自然基金

昼夜节律性small RNA在血斑形成时间推断中的法医学应用研究
  • 批准号:
  • 批准年份:
    2024
  • 资助金额:
    0.0 万元
  • 项目类别:
    省市级项目
tRNA-derived small RNA上调YBX1/CCL5通路参与硼替佐米诱导慢性疼痛的机制研究
  • 批准号:
    n/a
  • 批准年份:
    2022
  • 资助金额:
    10.0 万元
  • 项目类别:
    省市级项目
Small RNA调控I-F型CRISPR-Cas适应性免疫性的应答及分子机制
  • 批准号:
    32000033
  • 批准年份:
    2020
  • 资助金额:
    24.0 万元
  • 项目类别:
    青年科学基金项目
Small RNAs调控解淀粉芽胞杆菌FZB42生防功能的机制研究
  • 批准号:
    31972324
  • 批准年份:
    2019
  • 资助金额:
    58.0 万元
  • 项目类别:
    面上项目
变异链球菌small RNAs连接LuxS密度感应与生物膜形成的机制研究
  • 批准号:
    81900988
  • 批准年份:
    2019
  • 资助金额:
    21.0 万元
  • 项目类别:
    青年科学基金项目
基于small RNA 测序技术解析鸽分泌鸽乳的分子机制
  • 批准号:
    31802058
  • 批准年份:
    2018
  • 资助金额:
    26.0 万元
  • 项目类别:
    青年科学基金项目
肠道细菌关键small RNAs在克罗恩病发生发展中的功能和作用机制
  • 批准号:
    31870821
  • 批准年份:
    2018
  • 资助金额:
    56.0 万元
  • 项目类别:
    面上项目
Small RNA介导的DNA甲基化调控的水稻草矮病毒致病机制
  • 批准号:
    31772128
  • 批准年份:
    2017
  • 资助金额:
    60.0 万元
  • 项目类别:
    面上项目
基于small RNA-seq的针灸治疗桥本甲状腺炎的免疫调控机制研究
  • 批准号:
    81704176
  • 批准年份:
    2017
  • 资助金额:
    20.0 万元
  • 项目类别:
    青年科学基金项目
水稻OsSGS3与OsHEN1调控small RNAs合成及其对抗病性的调节
  • 批准号:
    91640114
  • 批准年份:
    2016
  • 资助金额:
    85.0 万元
  • 项目类别:
    重大研究计划

相似海外基金

CSR: Small: Leveraging Physical Side-Channels for Good
CSR:小:利用物理侧通道做好事
  • 批准号:
    2312089
  • 财政年份:
    2024
  • 资助金额:
    $ 49.99万
  • 项目类别:
    Standard Grant
NeTS: Small: NSF-DST: Modernizing Underground Mining Operations with Millimeter-Wave Imaging and Networking
NeTS:小型:NSF-DST:利用毫米波成像和网络实现地下采矿作业现代化
  • 批准号:
    2342833
  • 财政年份:
    2024
  • 资助金额:
    $ 49.99万
  • 项目类别:
    Standard Grant
CPS: Small: NSF-DST: Autonomous Operations of Multi-UAV Uncrewed Aerial Systems using Onboard Sensing to Monitor and Track Natural Disaster Events
CPS:小型:NSF-DST:使用机载传感监测和跟踪自然灾害事件的多无人机无人航空系统自主操作
  • 批准号:
    2343062
  • 财政年份:
    2024
  • 资助金额:
    $ 49.99万
  • 项目类别:
    Standard Grant
Collaborative Research: FET: Small: Reservoir Computing with Ion-Channel-Based Memristors
合作研究:FET:小型:基于离子通道忆阻器的储层计算
  • 批准号:
    2403559
  • 财政年份:
    2024
  • 资助金额:
    $ 49.99万
  • 项目类别:
    Standard Grant
オミックス解析を用いたブドウ球菌 small colony variants の包括的特徴づけ
使用组学分析全面表征葡萄球菌小菌落变体
  • 批准号:
    24K13443
  • 财政年份:
    2024
  • 资助金额:
    $ 49.99万
  • 项目类别:
    Grant-in-Aid for Scientific Research (C)
AF: Small: Problems in Algorithmic Game Theory for Online Markets
AF:小:在线市场的算法博弈论问题
  • 批准号:
    2332922
  • 财政年份:
    2024
  • 资助金额:
    $ 49.99万
  • 项目类别:
    Standard Grant
Collaborative Research: FET: Small: Algorithmic Self-Assembly with Crisscross Slats
合作研究:FET:小型:十字交叉板条的算法自组装
  • 批准号:
    2329908
  • 财政年份:
    2024
  • 资助金额:
    $ 49.99万
  • 项目类别:
    Standard Grant
NeTS: Small: ML-Driven Online Traffic Analysis at Multi-Terabit Line Rates
NeTS:小型:ML 驱动的多太比特线路速率在线流量分析
  • 批准号:
    2331111
  • 财政年份:
    2024
  • 资助金额:
    $ 49.99万
  • 项目类别:
    Standard Grant
Collaborative Research: SHF: Small: LEGAS: Learning Evolving Graphs At Scale
协作研究:SHF:小型:LEGAS:大规模学习演化图
  • 批准号:
    2331302
  • 财政年份:
    2024
  • 资助金额:
    $ 49.99万
  • 项目类别:
    Standard Grant
Collaborative Research: SHF: Small: LEGAS: Learning Evolving Graphs At Scale
协作研究:SHF:小型:LEGAS:大规模学习演化图
  • 批准号:
    2331301
  • 财政年份:
    2024
  • 资助金额:
    $ 49.99万
  • 项目类别:
    Standard Grant
{{ showInfoDetail.title }}

作者:{{ showInfoDetail.author }}

知道了