CPA-G&V: Self-Completion of 4D (Space+Time) Models

CPA-G

基本信息

  • 批准号:
    0811647
  • 负责人:
  • 金额:
    $ 32.5万
  • 依托单位:
  • 依托单位国家:
    美国
  • 项目类别:
    Standard Grant
  • 财政年份:
    2008
  • 资助国家:
    美国
  • 起止时间:
    2008-07-01 至 2012-06-30
  • 项目状态:
    已结题

项目摘要

CPA-G&V: Self-Completion of 4D (Space+Time) ModelsYang (0811647)AbstractDigital 2D photos and videos are already ubiquitous in our everyday life. Fueled by new products such as Google Earth and interactive 3D games, the public seems to have a renewed interest in 3D contents. Creating 3D contents beyond simple fixed viewpoint stereoscopic movies has so far remained to be a labor intensive and expensive process. This research investigates new software algorithms that can significantly simplify this modeling process, in particular for dynamic models. The use of inexpensive depth sensors (such a stereo camera) will capture a dynamic scene over time from different locations and automatically generate a complete 4D model. The recovered models can be used in many applications such as simulations to create realistic virtual environment, entertainment to render special effect, and perhaps simply to allow everyone to enjoy their cherish moments, such as a baby?s first step, in interactive 3D. From a technical standpoint, from the input sequence of color+depth maps, which provides a partial sampling of the entire 4D (space+time) model, the central research problem is how to fuse these partial samples to form a complete model. Different from all previous hole filling approaches, this research aims to deal with models that exhibit one or more of the following characteristics: large (e.g., several city blocks), dynamic, deforming, yet sparsely sampled (e.g., less than 50% is available), and possibly very noisy. Reconstructing a complete model under these conditions can be very challenging or sometime ill-posed. However, scene structures are usually not stochastic; the same or similar structure element may have appeared in the input set a few times, probably at a different time and location. Therefore, samples from different time or space can be used to fill in the missing data, making model completion possible, without using any external sources.
CPA-GV:4D(空间+时间)模型的自我完成杨(0811647)摘要数字2D照片和视频已经在我们的日常生活中无处不在。在Google Earth和互动3D游戏等新产品的推动下,公众似乎对3D内容重新产生了兴趣。创建3D内容而不是简单的固定视点立体电影迄今为止仍然是劳动密集型和昂贵的过程。本研究探讨了新的软件算法,可以显着简化这一建模过程,特别是动态模型。使用廉价的深度传感器(如立体相机)将从不同的位置捕获动态场景,并自动生成完整的4D模型。恢复的模型可以在许多应用程序中使用,如模拟,以创建逼真的虚拟环境,娱乐渲染特殊效果,也许只是为了让每个人都能享受他们的珍惜时刻,如婴儿?第一步,交互式3D。从技术角度来看,从颜色+深度图的输入序列来看,它提供了整个4D(空间+时间)模型的部分采样,中心研究问题是如何融合这些部分样本以形成完整的模型。与以往所有的孔洞填充方法不同,本研究旨在处理表现出以下一个或多个特征的模型:大(例如,几个城市街区)、动态的、变形的,但稀疏采样的(例如,小于50%是可用的),并且可能非常嘈杂。在这些条件下重建一个完整的模型可能非常具有挑战性,有时甚至是不适定的。然而,场景结构通常不是随机的;相同或相似的结构元素可能已经在输入集中出现了几次,可能在不同的时间和位置。因此,可以使用来自不同时间或空间的样本来填充缺失的数据,从而使模型完整成为可能,而无需使用任何外部来源。

项目成果

期刊论文数量(0)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ monograph.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ sciAawards.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ conferencePapers.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ patent.updateTime }}

Ruigang Yang其他文献

Feature-based texture mapping from video sequence
视频序列中基于特征的纹理映射
Speech2Video Synthesis with 3D Skeleton Regularization and Expressive Body Poses
具有 3D 骨架正则化和表现力身体姿势的 Speech2Video 合成
  • DOI:
  • 发表时间:
    2020
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Miao Liao;Sibo Zhang;Peng Wang;Hao Zhu;X. Zuo;Ruigang Yang
  • 通讯作者:
    Ruigang Yang
Immersive Video Teleconferencing with User-Steerable Views
具有用户可操纵视图的沉浸式视频电话会议
Real-time video matting using multichannel poisson equations
使用多通道泊松方程进行实时视频抠图
  • DOI:
  • 发表时间:
    2010
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Minglun Gong;Liang Wang;Ruigang Yang;Herbert Yang
  • 通讯作者:
    Herbert Yang
Geometrically correct imagery for teleconferencing
用于电话会议的几何正确图像
  • DOI:
    10.1145/319463.319596
  • 发表时间:
    1999
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Ruigang Yang;M. S. Brown;W. Seales;H. Fuchs
  • 通讯作者:
    H. Fuchs

Ruigang Yang的其他文献

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

{{ truncateString('Ruigang Yang', 18)}}的其他基金

PFI:AIR-TT: Kinect-Based Low-Cost Motion Analysis System for Medical Applications
PFI:AIR-TT:适用于医疗应用的基于 Kinect 的低成本运动分析系统
  • 批准号:
    1543172
  • 财政年份:
    2015
  • 资助金额:
    $ 32.5万
  • 项目类别:
    Standard Grant
SHB: Type I (EXP): High Accuracy Motion Analysis using Commodity Depth Camera for Clinical Lower-Extremity Assessment
SHB:I 型 (EXP):使用商品深度相机进行高精度运动分析,进行临床下肢评估
  • 批准号:
    1231545
  • 财政年份:
    2012
  • 资助金额:
    $ 32.5万
  • 项目类别:
    Standard Grant
NRI-Small: Virtualized Welding: A New Paradigm for Intelligent Welding Robots in Unstructured Environment
NRI-Small:虚拟化焊接:非结构化环境中智能焊接机器人的新范式
  • 批准号:
    1208420
  • 财政年份:
    2012
  • 资助金额:
    $ 32.5万
  • 项目类别:
    Standard Grant
MRI: Development of Versatile Mobile Range Scanning System?Enabling Large-scale High-density 3D Data Acquisition for Cross-Disciplinary Research
MRI:开发多功能移动范围扫描系统?为跨学科研究实现大规模高密度 3D 数据采集
  • 批准号:
    0923131
  • 财政年份:
    2009
  • 资助金额:
    $ 32.5万
  • 项目类别:
    Standard Grant
CAREER: The Light Portal: 3D Reconstruction and Visualization Over Space and Time
职业:光门户:时空 3D 重建和可视化
  • 批准号:
    0448185
  • 财政年份:
    2005
  • 资助金额:
    $ 32.5万
  • 项目类别:
    Continuing Grant
{{ showInfoDetail.title }}

作者:{{ showInfoDetail.author }}

知道了