Automated As-Is Modeling with Visual and Spatial Data Fusion

通过视觉和空间数据融合进行自动化建模

基本信息

  • 批准号:
    418742-2012
  • 负责人:
  • 金额:
    $ 1.75万
  • 依托单位:
  • 依托单位国家:
    加拿大
  • 项目类别:
    Discovery Grants Program - Individual
  • 财政年份:
    2012
  • 资助国家:
    加拿大
  • 起止时间:
    2012-01-01 至 2013-12-31
  • 项目状态:
    已结题

项目摘要

The objective of this proposal is to evaluate whether a framework proposed by the applicant can reconstruct building interiors into an object-oriented model. According to the proposed framework, building interiors are first surveyed with a portable visual and spatial sensing system, which provides a stream of video frames along with per-pixel depth values. Building elements in the video frames are recognized based on their visual patterns. The occupying pixels are tagged with semantic labels, such as "column" or "wall". Meanwhile, a set of point-wise 3D correspondences between any two video frames are extracted by matching the locations of their joint visual features and evaluating the features' depth values. Based on these 3D correspondences, the pair-wise relative transformation between the frames is estimated. This way, the pixels in the frames can be aligned to form a "cloud" of 3D points. According to the labels previously assigned to the pixels, the points in the cloud can be divided into multiple parts and modeled parametrically. This object-oriented parametric model represents the perceived building interiors, and can be used for building interior construction and retrofit.
本提案的目的是评估申请人提出的框架是否可以将建筑物内部重建为面向对象的模型。根据所提出的框架,建筑物内部首先调查与便携式视觉和空间传感系统,它提供了一个流的视频帧沿着与每像素的深度值。基于视频帧中的建筑物元素的视觉图案来识别它们。占用像素被标记有语义标签,诸如“列”或“墙”。同时,通过匹配它们的联合视觉特征的位置并评估特征的深度值来提取任意两个视频帧之间的逐点3D对应关系。基于这些3D对应关系,估计帧之间的成对相对变换。这样,帧中的像素可以对齐以形成3D点的“云”。根据先前分配给像素的标签,云中的点可以被划分为多个部分并进行参数化建模。这种面向对象的参数化模型代表了感知的建筑内部,并可用于建筑内部的施工和改造。

项目成果

期刊论文数量(0)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ monograph.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ sciAawards.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ conferencePapers.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ patent.updateTime }}

Zhu, Zhenhua其他文献

Enhanced flotation efficiency of metal from waste printed circuit boards modified by alkaline immersion
  • DOI:
    10.1016/j.wasman.2020.11.002
  • 发表时间:
    2021-02-01
  • 期刊:
  • 影响因子:
    8.1
  • 作者:
    Dai, Guofu;Han, Jun;Zhu, Zhenhua
  • 通讯作者:
    Zhu, Zhenhua
Trans-omic profiling between clinical phenoms and lipidomes among patients with different subtypes of lung cancer
不同亚型肺癌患者临床现象和脂质组之间的跨组学分析
  • DOI:
    10.1002/ctm2.151
  • 发表时间:
    2020-08-01
  • 期刊:
  • 影响因子:
    10.6
  • 作者:
    Zhu, Zhenhua;Zhang, Linlin;Wang, Xiangdong
  • 通讯作者:
    Wang, Xiangdong
New iron(II) spin-crossover metallomesogen with long aliphatic chain terminated by a C=C bond
具有以 C=C 键封端的长脂肪链的新型铁(II)自旋交叉金属介晶
  • DOI:
    10.1039/d1qi01181b
  • 发表时间:
    2021-11-16
  • 期刊:
  • 影响因子:
    7
  • 作者:
    Liu, Shuting;Zhu, Zhenhua;Tang, Jinkui
  • 通讯作者:
    Tang, Jinkui
Wearable Sensors-Based Hand Gesture Recognition for Human-Robot Collaboration in Construction
  • DOI:
    10.1109/jsen.2022.3222801
  • 发表时间:
    2023-01-01
  • 期刊:
  • 影响因子:
    4.3
  • 作者:
    Wang, Xin;Veeramani, Dharmaraj;Zhu, Zhenhua
  • 通讯作者:
    Zhu, Zhenhua

Zhu, Zhenhua的其他文献

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

{{ truncateString('Zhu, Zhenhua', 18)}}的其他基金

Multi-Sensor Data Collection, Fusion, and Analytics to Support Effective Performance Measures in Construction Projects
多传感器数据收集、融合和分析支持建筑项目中的有效绩效衡量
  • 批准号:
    RGPIN-2018-06760
  • 财政年份:
    2018
  • 资助金额:
    $ 1.75万
  • 项目类别:
    Discovery Grants Program - Individual
MULTI-SENSORY DATA FUSION FOR MÉTRO INSPECTION
用于 MäTRO 检查的多传感器数据融合
  • 批准号:
    515035-2017
  • 财政年份:
    2017
  • 资助金额:
    $ 1.75万
  • 项目类别:
    Engage Grants Program
Automated As-Is Modeling with Visual and Spatial Data Fusion
通过视觉和空间数据融合进行自动化建模
  • 批准号:
    418742-2012
  • 财政年份:
    2017
  • 资助金额:
    $ 1.75万
  • 项目类别:
    Discovery Grants Program - Individual
Camera Deployment Planning and Evaluation in Construction
施工中摄像机的部署规划和评估
  • 批准号:
    487018-2015
  • 财政年份:
    2015
  • 资助金额:
    $ 1.75万
  • 项目类别:
    Engage Grants Program
Automated As-Is Modeling with Visual and Spatial Data Fusion
通过视觉和空间数据融合进行自动化建模
  • 批准号:
    418742-2012
  • 财政年份:
    2015
  • 资助金额:
    $ 1.75万
  • 项目类别:
    Discovery Grants Program - Individual
CONSTRUCTION JOBSITE MONITORING WITH MULTIPLE VIDEO CAMERAS
使用多个摄像机进行施工现场监控
  • 批准号:
    485527-2015
  • 财政年份:
    2015
  • 资助金额:
    $ 1.75万
  • 项目类别:
    Collaborative Research and Development Grants
AUTOMATIC ANALYSIS OF GROUND PENETRATING RADAR (GPR) PROFILE
探地雷达 (GPR) 剖面自动分析
  • 批准号:
    488508-2015
  • 财政年份:
    2015
  • 资助金额:
    $ 1.75万
  • 项目类别:
    Engage Grants Program
Automated As-Is Modeling with Visual and Spatial Data Fusion
通过视觉和空间数据融合进行自动化建模
  • 批准号:
    418742-2012
  • 财政年份:
    2014
  • 资助金额:
    $ 1.75万
  • 项目类别:
    Discovery Grants Program - Individual
Automated As-Is Modeling with Visual and Spatial Data Fusion
通过视觉和空间数据融合进行自动化建模
  • 批准号:
    418742-2012
  • 财政年份:
    2013
  • 资助金额:
    $ 1.75万
  • 项目类别:
    Discovery Grants Program - Individual
Video-based monitoring for measuring project performance
用于衡量项目绩效的视频监控
  • 批准号:
    461876-2013
  • 财政年份:
    2013
  • 资助金额:
    $ 1.75万
  • 项目类别:
    Engage Grants Program

相似国自然基金

Galaxy Analytical Modeling Evolution (GAME) and cosmological hydrodynamic simulations.
  • 批准号:
  • 批准年份:
    2025
  • 资助金额:
    10.0 万元
  • 项目类别:
    省市级项目

相似海外基金

RI:Small: Modeling and Relating Visual Tasks
RI:Small:建模和关联视觉任务
  • 批准号:
    2329927
  • 财政年份:
    2023
  • 资助金额:
    $ 1.75万
  • 项目类别:
    Continuing Grant
Collaborative Research: HCC: Medium: Modeling and Mitigating Confirmation Bias in Visual Data Analysis
合作研究:HCC:媒介:可视化数据分析中的建模和减轻确认偏差
  • 批准号:
    2311575
  • 财政年份:
    2023
  • 资助金额:
    $ 1.75万
  • 项目类别:
    Standard Grant
CRCNS Research Proposal: Learning by Looking: Modeling visual system representation formation via foveated sensing in a 3-D world
CRCNS 研究提案:通过观察学习:通过 3D 世界中的注视点感知对视觉系统表征形成进行建模
  • 批准号:
    2309041
  • 财政年份:
    2023
  • 资助金额:
    $ 1.75万
  • 项目类别:
    Continuing Grant
Collaborative Research: HCC: Medium: Modeling and Mitigating Confirmation Bias in Visual Data Analysis
合作研究:HCC:媒介:可视化数据分析中的建模和减轻确认偏差
  • 批准号:
    2311574
  • 财政年份:
    2023
  • 资助金额:
    $ 1.75万
  • 项目类别:
    Standard Grant
Visual-search ideal observers for modeling reader variability
视觉搜索理想观察者对读者变异性进行建模
  • 批准号:
    10530899
  • 财政年份:
    2022
  • 资助金额:
    $ 1.75万
  • 项目类别:
CRCNS US-Japan Research Proposal: Modeling the Dynamic Topological Representation of the Primate Visual System
CRCNS 美日研究提案:灵长类视觉系统的动态拓扑表示建模
  • 批准号:
    2208362
  • 财政年份:
    2022
  • 资助金额:
    $ 1.75万
  • 项目类别:
    Standard Grant
Measuring and Modeling Visual Attention in Online Multimedia Instruction
在线多媒体教学中视觉注意力的测量和建模
  • 批准号:
    2055406
  • 财政年份:
    2021
  • 资助金额:
    $ 1.75万
  • 项目类别:
    Standard Grant
Measuring and Modeling Visual Attention in Online Multimedia Instruction
在线多媒体教学中视觉注意力的测量和建模
  • 批准号:
    2100071
  • 财政年份:
    2021
  • 资助金额:
    $ 1.75万
  • 项目类别:
    Standard Grant
Measuring and Modeling Visual Attention in Online Multimedia Instruction
在线多媒体教学中视觉注意力的测量和建模
  • 批准号:
    2100218
  • 财政年份:
    2021
  • 资助金额:
    $ 1.75万
  • 项目类别:
    Standard Grant
Mid-level visual processing studied by generative image models and computational modeling
通过生成图像模型和计算建模研究中级视觉处理
  • 批准号:
    RGPIN-2019-06678
  • 财政年份:
    2019
  • 资助金额:
    $ 1.75万
  • 项目类别:
    Discovery Grants Program - Individual
{{ showInfoDetail.title }}

作者:{{ showInfoDetail.author }}

知道了