基于仿生相机的实时连续人体动作识别

结题报告
项目介绍
AI项目解读

基本信息

  • 批准号:
    61873220
  • 项目类别:
    面上项目
  • 资助金额:
    63.0万
  • 负责人:
  • 依托单位:
  • 学科分类:
    F0310.人工智能驱动的自动化
  • 结题年份:
    2022
  • 批准年份:
    2018
  • 项目状态:
    已结题
  • 起止时间:
    2019-01-01 至2022-12-31

项目摘要

In practice, applications such as smart surveillance, robotics or autonomous driving require cameras to record video streams continuously and vision algorithm to perform real-time temporal action detection in such long streams. To achieve this, the computer vision system must simultaneously predict both the temporal interval and the category of the actions while they occur in long video streams. However, it remains challenged and is a key research topic for long-term activity analysis, since that untrimmed long video often can be highly unconstrained in space and time, and can contain multiple action instances plus background scenes, thus resulting in a higher computational cost for feature extraction. The project employs a bioinspired camera (Event-based Vision Sensor) to form a new continuous action recognition framework. We can obtain a lower sensing latency while the bioinspired vision sensor has the potential to outperform conventional frame-based vision sensors in terms of redundancy suppression, higher dynamic range, higher temporal resolution, and power efficiency. We propose new paradigms of image processing and vision algorithm for such bioinspired vision sensors. Basing on the new paradigms, a single stream temporal action proposal network is proposed to generate temporal action proposals in real-time in a single pass, achieving action recognition continuously in very long input video sequences. The project aims to apply a new bioinspired camera to build a set of new theories and algorithms for real-time continuous action recognition, benefitting the development of intelligent human-machine interaction and long-term complex activity analysis in vision scene.
在视频监控、智能机器人和自动驾驶等现实应用场景中,要求相机能够连续记录视频并实时地识别视频中一系列人体动作和行为,这就需要视觉算法能够实时地同时进行动作边界检测和动作类型识别。然而,连续人体动作识别由于其视频背景复杂、连续且时程长、特征计算复杂度高等特点,仍然是一项非常挑战的研究问题,也是场景复杂行为分析理论亟待解决的关键问题。本项目拟提出一个基于仿生相机视觉感知的连续动作识别新框架。得益于该仿生相机的稀疏性、低时延、低功耗、宽的动态范围等拟人类视觉特性,本项目首先拟从感知端解决场景视觉信息捕捉的实时性和有效性,并提出适应于该相机的图像处理和视觉算法。在此基础上,研究提出实时的单向动作推荐神经网络,通过单次向前的视频特征计算产生动作实例推荐,实现长视频中动作序列实时检测与识别。本项目旨在利用新型传感相机,提出一套全新完整的实时连续动作识别理论和算法。

结项摘要

在视频监控、智能机器人和自动驾驶等现实应用场景中,要求相机能够连续并实时地识别视频中一系列人体动作和行为。然而,人体动作识别由于其视频背景复杂、连续且时程长、特征计算复杂度高等特点,仍然是一项非常挑战的研究问题,也是场景复杂行为分析理论亟待解决的关键问题。本项目提出了一个基于仿生相机视觉感知的连续动作识别新范式。首先从感知端解决场景视觉信息捕捉的实时性和有效性,建立了一套基于新型仿生相机的视觉感知系统。基于此新型视觉系统,研究组开发提出了一系列面向仿生相机的图像处理和视觉算法。其次,针对人体动作的特征表示与提取,研究了基于人体姿态的动作特征表示方法,并有效应用于复杂跨视角场景的人体动作识别。最后,结合仿生相机的图像处理与视觉算法,基于人体姿态估计的研究基础,探讨高速及低光照场景下的人体动作识别问题,显著提高复杂环境下的人体连续动作识别的准确率和鲁棒性,可有效部署在实际应用场景中。本项目通过此新型仿生传感相机的研究,提出了一套全新完整的仿生相机视觉算法,开拓了基于仿生相机的视觉应用研究新方向,构建了一套全新的基于仿生相机的实时连续动作识别理论与算法,促进了仿生相机的稀疏信号处理中关键问题的解决。项目研究成功斐然,共发表高水平学术论文21篇,其中国际知名期刊12篇,包括IEEE汇刊8篇,其中5篇机器人顶级会议文章,1篇计算机视觉顶级会议文章,培养博士研究生7名,其中已毕业5名,在读2名,硕士研究生1名;组织国内外专家来项目组交流6人次,参加国内外会议9人次,特邀专题报告3次;申请美国发明专利1项;项目投入经费63万,各项支出基本与预算复合,剩余经费将用于本项目后续研究支出。

项目成果

期刊论文数量(14)
专著数量(0)
科研奖励数量(1)
会议论文数量(6)
专利数量(1)
Learning Representations from Skeletal Self-Similarities for Cross-view Action Recognition
从骨骼自相似性中学习表示以进行跨视图动作识别
  • DOI:
    10.1109/tcsvt.2020.2965574
  • 发表时间:
    2020
  • 期刊:
    IEEE Transactions on Circuits and Systems for Video Technology
  • 影响因子:
    8.4
  • 作者:
    Zhanpeng Shao;Youfu Li;Hong Zhang
  • 通讯作者:
    Hong Zhang
Anisotropic angle distribution learning for head pose estimation and attention understanding in human-computer interaction
人机交互中头部姿势估计和注意力理解的各向异性角度分布学习
  • DOI:
    10.1016/j.neucom.2020.09.068
  • 发表时间:
    2021-01-27
  • 期刊:
    NEUROCOMPUTING
  • 影响因子:
    6
  • 作者:
    Liu, Hai;Nie, Hanwen;Li, You-Fu
  • 通讯作者:
    Li, You-Fu
Cross-Validated Locally Polynomial Modeling for 2-D/3-D Gaze Tracking With Head-Worn Devices
使用头戴式设备进行 2D/3D 视线跟踪的交叉验证局部多项式建模
  • DOI:
    10.1109/tii.2019.2933481
  • 发表时间:
    2020-01-01
  • 期刊:
    IEEE TRANSACTIONS ON INDUSTRIAL INFORMATICS
  • 影响因子:
    12.3
  • 作者:
    Su, Dan;Li, You-Fu;Chen, Hao
  • 通讯作者:
    Chen, Hao
Learning From Images: A Distillation Learning Framework for Event Cameras
从图像中学习:事件摄像机的精炼学习框架
  • DOI:
    10.1109/tip.2021.3077136
  • 发表时间:
    2021-01-01
  • 期刊:
    IEEE TRANSACTIONS ON IMAGE PROCESSING
  • 影响因子:
    10.6
  • 作者:
    Deng, Yongjian;Chen, Hao;Li, Youfu
  • 通讯作者:
    Li, Youfu
Multi-stream feature refinement network for human object interaction detection
用于人体物体交互检测的多流特征细化网络
  • DOI:
    10.1016/j.jvcir.2022.103529
  • 发表时间:
    2022-05-14
  • 期刊:
    JOURNAL OF VISUAL COMMUNICATION AND IMAGE REPRESENTATION
  • 影响因子:
    2.6
  • 作者:
    Shao, Zhanpeng;Hu, Zhongyan;Li, Youfu
  • 通讯作者:
    Li, Youfu

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi || "--"}}
  • 发表时间:
    {{ item.publish_year || "--" }}
  • 期刊:
    {{ item.journal_name }}
  • 影响因子:
    {{ item.factor || "--"}}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.authors }}

数据更新时间:{{ monograph.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.authors }}

数据更新时间:{{ sciAawards.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.authors }}

数据更新时间:{{ conferencePapers.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.authors }}

数据更新时间:{{ patent.updateTime }}

其他文献

2D/3D距离选通成像的低对比度目标探测
  • DOI:
    --
  • 发表时间:
    2014
  • 期刊:
    红外与激光工程
  • 影响因子:
    --
  • 作者:
    孔庆善;崔伟;周燕;李友福
  • 通讯作者:
    李友福

其他文献

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi || "--" }}
  • 发表时间:
    {{ item.publish_year || "--"}}
  • 期刊:
    {{ item.journal_name }}
  • 影响因子:
    {{ item.factor || "--" }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}
empty
内容获取失败,请点击重试
重试联系客服
title开始分析
查看分析示例
此项目为已结题,我已根据课题信息分析并撰写以下内容,帮您拓宽课题思路:

AI项目思路

AI技术路线图

李友福的其他基金

面向人/机器人注意力融合的凝视交互系统理论与关键技术研究
  • 批准号:
    62173286
  • 批准年份:
    2021
  • 资助金额:
    59.00 万元
  • 项目类别:
    面上项目
面向人/机器人注意力融合的凝视交互系统理论与关键技术研究
  • 批准号:
  • 批准年份:
    2021
  • 资助金额:
    59 万元
  • 项目类别:
    面上项目
基于关键运动元检测的连续人体动作识别
  • 批准号:
    61673329
  • 批准年份:
    2016
  • 资助金额:
    16.0 万元
  • 项目类别:
    面上项目
自主移动与参考结构层析成像融合实现多维红外成像的新方法
  • 批准号:
    61273286
  • 批准年份:
    2012
  • 资助金额:
    80.0 万元
  • 项目类别:
    面上项目

相似国自然基金

{{ item.name }}
  • 批准号:
    {{ item.ratify_no }}
  • 批准年份:
    {{ item.approval_year }}
  • 资助金额:
    {{ item.support_num }}
  • 项目类别:
    {{ item.project_type }}

相似海外基金

{{ item.name }}
{{ item.translate_name }}
  • 批准号:
    {{ item.ratify_no }}
  • 财政年份:
    {{ item.approval_year }}
  • 资助金额:
    {{ item.support_num }}
  • 项目类别:
    {{ item.project_type }}
{{ showInfoDetail.title }}

作者:{{ showInfoDetail.author }}

知道了

AI项目解读示例

课题项目:调控A型流感病毒诱导IFN-β表达的机制研究

AI项目摘要:

本研究聚焦于TRIM2蛋白在A型流感病毒诱导的IFN-β表达中的调控机制。A型流感病毒是全球性健康问题,其感染可导致严重的呼吸道疾病。IFN-β作为关键的抗病毒因子,其表达水平对抗病毒防御至关重要。然而,TRIM2如何调控IFN-β的表达尚未明确。本研究假设TRIM2通过与病毒RNA或宿主因子相互作用,影响IFN-β的产生。我们将采用分子生物学、细胞生物学和免疫学方法,探索TRIM2与A型流感病毒诱导IFN-β表达的关系。预期结果将揭示TRIM2在抗病毒免疫反应中的作用,为开发新的抗病毒策略提供理论基础。该研究对理解宿主抗病毒机制具有重要科学意义,并可能对临床治疗流感病毒感染提供新的视角。

AI项目思路:

科学问题:TRIM2如何调控A型流感病毒诱导的IFN-β表达?
前期研究:已有研究表明TRIM2参与抗病毒反应,但其具体机制尚不明确。
研究创新点:本研究将深入探讨TRIM2在IFN-β表达中的直接作用机制。
技术路线:包括病毒学、分子生物学、细胞培养和免疫检测技术。
关键技术:TRIM2与病毒RNA的相互作用分析,IFN-β启动子活性检测。
实验模型:使用A型流感病毒感染的细胞模型进行研究。

AI技术路线图

        graph TD
          A[研究起始] --> B[文献回顾与假设提出]
          B --> C[实验设计与方法学准备]
          C --> D[A型流感病毒感染模型建立]
          D --> E[TRIM2与病毒RNA相互作用分析]
          E --> F[TRIM2对IFN-β启动子活性的影响]
          F --> G[IFN-β表达水平测定]
          G --> H[TRIM2功能丧失与获得研究]
          H --> I[数据收集与分析]
          I --> J[结果解释与科学验证]
          J --> K[研究结论与未来方向]
          K --> L[研究结束]
      
关闭
close
客服二维码