基于产生式模型的人体行为识别与检测一体化方法研究

结题报告
项目介绍
AI项目解读

基本信息

  • 批准号:
    61572409
  • 项目类别:
    面上项目
  • 资助金额:
    67.0万
  • 负责人:
  • 依托单位:
  • 学科分类:
    F0210.计算机图像视频处理与多媒体技术
  • 结题年份:
    2019
  • 批准年份:
    2015
  • 项目状态:
    已结题
  • 起止时间:
    2016-01-01 至2019-12-31

项目摘要

Human action detection aims to solve what, when and where problem of human action in a long video. It is an active and challenging research area in computer vision, including human action recognition and localization. The methods of human action recoginition and detection often based on Discriminative Model, result in a fix result.Therefore these method neither can deal with the flexibility and diversity of the result, nor can handle the newly arrived samples accompanied with the update of model. Thus, a research on human action detection based on generative model is proposed. This proposal includes: (1) develop fast foreground objects extraction method based on attention mechanism; (2) design a robust pose estimation method with random regression forest; (3) propose an view-invariant human action descriptor; (4) propose a LDA generative model for action recognition and detection. This project proposal is expected to solve these problems in human action detection, enrich the theory of human action detection in depth images, and promote the development of computer vision.
人体行为检测旨在指出长视频序列中发生的人体行为的类型、起始时间和地点,包括行为的识别和定位,是比人体行为识别更具挑战性的计算机视觉前沿研究方向。目前大部分研究中行为识别和检测主要基于判别式模型,通常只能给出确定性的结果,不能满足行为预测结果的灵活性和多样性,也无法解决行为样本层出不穷和模型更新问题。因此,本课题开展基于产生式模型的人体行为识别和检测一体化方法研究。主要内容包括:基于注意机制的候选目标区域筛选方法;部分遮挡情况下的基于随机回归森林的鲁棒人体三维姿态估计;行为的视角不变性特征设计;行为识别和检测的LDA产生式模型。本项目有望解决人体行为检测研究中存在的上述问题,丰富深度摄像机下的人体行为检测的理论和算法,为计算机视觉的发展提供理论和技术支持。

结项摘要

人体行为检测旨在指出长视频序列中发生的人体行为的类型、起始时间和地点,包括行为的识别和定位,是比人体行为识别更具挑战性的计算机视觉前沿研究方向。项目在系统总结国内外已有相关研究成果的基础上,对行为识别技术的研究现状,进行了分析总结,并开展了以下四方面的研究工作。.(1)基于深度学习的前景目标显著性与检测方法:针对如何快速准确的检测与定位图像与视频数据中起重要作用的前景目标,提出了一种基于深度学习的多特征融合的视觉显著性检测算法和一种基于多特征重排序的目标检测算法。.(2)基于人体关节点的行为识别方法:针对目前人体行为识别存在的特征维度高、计算复杂度高、缺乏语义解释,提出了基于部位判别力聚类的元动作的人体行为表示方法;基于特征分类熵的多元特征选择方法的人体识别行为算法。.(3)基于深度学习的行为识别方法研究:针对深度卷积神经网络在针对不定长视频的特征采样、训练时容易出现过拟合现象、行为动作时序关系的表述,提出了一种以固定步长采样视频帧和分层池化的基于深度卷积神经网络的行为识别算法,双支路全卷积神经网络的行为识别算法,基于递归神经网络的行为识别算法,基于类残差循环神经网络行为识别方法。.(4)多源多标记学习算法研究:针对多标记数据的特征表征具有不同来源、特征的维度通常很大、冗余的难题,提出一种面向多数据源的多标记学习框架MLSO和一种流形正则性约束的嵌入式多标记特征选择方法MDFS。 ..在多个相关基准数据库上的相关实验结果显示,本项目研究构建的相关算法性能可以达到当前学术界的先进水平。同时,本项目的相关研究在一定程度上解决了人体行为识别与检测研究中存在的上述问题,丰富计算机视觉与机器学习在相关领域的理论和提供技术支持。

项目成果

期刊论文数量(32)
专著数量(0)
科研奖励数量(0)
会议论文数量(8)
专利数量(1)
一种卷积神经网络的图像矩正则化策略
  • DOI:
    --
  • 发表时间:
    2016
  • 期刊:
    智能系统学报
  • 影响因子:
    --
  • 作者:
    殷瑞;苏松志;李绍滋
  • 通讯作者:
    李绍滋
Meta-action descriptor for action recognition in RGBD video
RGBD 视频中动作识别的元动作描述符
  • DOI:
    10.1049/iet-cvi.2016.0252
  • 发表时间:
    2017-05
  • 期刊:
    IET Computer Vision
  • 影响因子:
    1.7
  • 作者:
    Min Huang;Songzhi Su;Guorong Cai;Hong Bo Zhang;Donglin Cao;Shao-Zi Li
  • 通讯作者:
    Shao-Zi Li
CBDF: Compressed Binary Discriminative Feature
CBDF:压缩二进制判别特征
  • DOI:
    10.1016/j.neucom.2015.07.120
  • 发表时间:
    2016-04-05
  • 期刊:
    NEUROCOMPUTING
  • 影响因子:
    6
  • 作者:
    Geng, Li-Chuan;Jodoin, Pierre-Marc;Li, Shao-Zi
  • 通讯作者:
    Li, Shao-Zi
Fully convolutional networks for action recognition
用于动作识别的全卷积网络
  • DOI:
    10.1049/iet-cvi.2017.0005
  • 发表时间:
    2017-07
  • 期刊:
    IET Computer Vision
  • 影响因子:
    1.7
  • 作者:
    Yu Sheng;Cheng Yun;Xie Li;Li Shao Zi
  • 通讯作者:
    Li Shao Zi
Attention guided U-Net for accurate iris segmentation
注意力引导 U-Net 用于精确虹膜分割
  • DOI:
    10.1016/j.jvcir.2018.10.001
  • 发表时间:
    2018-10-01
  • 期刊:
    JOURNAL OF VISUAL COMMUNICATION AND IMAGE REPRESENTATION
  • 影响因子:
    2.6
  • 作者:
    Lian, Sheng;Luo, Zhiming;Li, Shaozi
  • 通讯作者:
    Li, Shaozi

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi || "--"}}
  • 发表时间:
    {{ item.publish_year || "--" }}
  • 期刊:
    {{ item.journal_name }}
  • 影响因子:
    {{ item.factor || "--"}}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.authors }}

数据更新时间:{{ monograph.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.authors }}

数据更新时间:{{ sciAawards.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.authors }}

数据更新时间:{{ conferencePapers.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.authors }}

数据更新时间:{{ patent.updateTime }}

其他文献

基于多特征融合的花卉图像检索
  • DOI:
    --
  • 发表时间:
    --
  • 期刊:
    计算机科学
  • 影响因子:
    --
  • 作者:
    陈小芬;李绍滋;柯逍
  • 通讯作者:
    柯逍
智能多媒体内容理解若干关键技术研究
  • DOI:
    --
  • 发表时间:
    --
  • 期刊:
    厦门大学学报(自然科学版)
  • 影响因子:
    --
  • 作者:
    曹冬林;李绍滋;苏松志;戴莹;郭锋
  • 通讯作者:
    郭锋
一种基于量子进化算法的快速水印算法
  • DOI:
    --
  • 发表时间:
    --
  • 期刊:
    光电子.激光
  • 影响因子:
    --
  • 作者:
    苏松志;蔡启先;李绍滋;王智文;刘美珍
  • 通讯作者:
    刘美珍
基于外部数据库的图像自动标注改善模型
  • DOI:
    --
  • 发表时间:
    --
  • 期刊:
    计算机应用
  • 影响因子:
    --
  • 作者:
    柯逍;李绍滋;李东艳
  • 通讯作者:
    李东艳
基于多结构估计的建筑物激光雷达点云特征线提取算法
  • DOI:
    --
  • 发表时间:
    2015
  • 期刊:
    厦门大学学报(自然科学版)
  • 影响因子:
    --
  • 作者:
    蔡国榕;陈水利;李绍滋;吴云东
  • 通讯作者:
    吴云东

其他文献

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi || "--" }}
  • 发表时间:
    {{ item.publish_year || "--"}}
  • 期刊:
    {{ item.journal_name }}
  • 影响因子:
    {{ item.factor || "--" }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}
empty
内容获取失败,请点击重试
重试联系客服
title开始分析
查看分析示例
此项目为已结题,我已根据课题信息分析并撰写以下内容,帮您拓宽课题思路:

AI项目思路

AI技术路线图

李绍滋的其他基金

基于Transformer与特征对齐的RGB-红外跨模态行人再识别方法研究
  • 批准号:
    62376232
  • 批准年份:
    2023
  • 资助金额:
    49 万元
  • 项目类别:
    面上项目
大数据场景下基于深度学习的行人再识别方法研究
  • 批准号:
    61876159
  • 批准年份:
    2018
  • 资助金额:
    62.0 万元
  • 项目类别:
    面上项目
单目移动拍摄下基于隐式形状模型的行人检测方法研究
  • 批准号:
    60873179
  • 批准年份:
    2008
  • 资助金额:
    35.0 万元
  • 项目类别:
    面上项目

相似国自然基金

{{ item.name }}
  • 批准号:
    {{ item.ratify_no }}
  • 批准年份:
    {{ item.approval_year }}
  • 资助金额:
    {{ item.support_num }}
  • 项目类别:
    {{ item.project_type }}

相似海外基金

{{ item.name }}
{{ item.translate_name }}
  • 批准号:
    {{ item.ratify_no }}
  • 财政年份:
    {{ item.approval_year }}
  • 资助金额:
    {{ item.support_num }}
  • 项目类别:
    {{ item.project_type }}
{{ showInfoDetail.title }}

作者:{{ showInfoDetail.author }}

知道了

AI项目解读示例

课题项目:调控A型流感病毒诱导IFN-β表达的机制研究

AI项目摘要:

本研究聚焦于TRIM2蛋白在A型流感病毒诱导的IFN-β表达中的调控机制。A型流感病毒是全球性健康问题,其感染可导致严重的呼吸道疾病。IFN-β作为关键的抗病毒因子,其表达水平对抗病毒防御至关重要。然而,TRIM2如何调控IFN-β的表达尚未明确。本研究假设TRIM2通过与病毒RNA或宿主因子相互作用,影响IFN-β的产生。我们将采用分子生物学、细胞生物学和免疫学方法,探索TRIM2与A型流感病毒诱导IFN-β表达的关系。预期结果将揭示TRIM2在抗病毒免疫反应中的作用,为开发新的抗病毒策略提供理论基础。该研究对理解宿主抗病毒机制具有重要科学意义,并可能对临床治疗流感病毒感染提供新的视角。

AI项目思路:

科学问题:TRIM2如何调控A型流感病毒诱导的IFN-β表达?
前期研究:已有研究表明TRIM2参与抗病毒反应,但其具体机制尚不明确。
研究创新点:本研究将深入探讨TRIM2在IFN-β表达中的直接作用机制。
技术路线:包括病毒学、分子生物学、细胞培养和免疫检测技术。
关键技术:TRIM2与病毒RNA的相互作用分析,IFN-β启动子活性检测。
实验模型:使用A型流感病毒感染的细胞模型进行研究。

AI技术路线图

        graph TD
          A[研究起始] --> B[文献回顾与假设提出]
          B --> C[实验设计与方法学准备]
          C --> D[A型流感病毒感染模型建立]
          D --> E[TRIM2与病毒RNA相互作用分析]
          E --> F[TRIM2对IFN-β启动子活性的影响]
          F --> G[IFN-β表达水平测定]
          G --> H[TRIM2功能丧失与获得研究]
          H --> I[数据收集与分析]
          I --> J[结果解释与科学验证]
          J --> K[研究结论与未来方向]
          K --> L[研究结束]
      
关闭
close
客服二维码