High Risk Pedestrian Detection for Early Danger Avoidance

高风险行人检测以尽早避免危险

基本信息

  • 批准号:
    22K12103
  • 负责人:
  • 金额:
    $ 2.66万
  • 依托单位:
  • 依托单位国家:
    日本
  • 项目类别:
    Grant-in-Aid for Scientific Research (C)
  • 财政年份:
    2022
  • 资助国家:
    日本
  • 起止时间:
    2022-04-01 至 2025-03-31
  • 项目状态:
    未结题

项目摘要

本研究は、早期の交通危険回避を支援するために、「要注意歩行者」の検出技術の確立を目標としている。この目標は、[1]歩行者検出と環境属性(3D位置、遮蔽状況)認識手法の開発、[2]歩行者固有属性(年齢、所持品、服装)詳細認識手法の開発、[3]歩行者行動属性(動きの方向・速度、方向・速度の可変性)認識手法の開発、及び[4]「要注意歩行者」の判定手法の開発により実現する。令和4年度では[1][2][4]について、それぞれの研究開発を行った。研究項目[1]については、「2.5D候補領域生成アルゴリズム」は歩行者検出と環境属性認識を同時に行うための鍵となる。令和4年度は、このアルゴリズムに関する大規模な評価実験を実施出来なかったが、予定通りに基本実装を実現したため、概ね順調に進んでいる。研究項目[2]については、詳細認識のためのCross-layer Mutual Attention Learning Network(CMAL-Net)という深層モデルを提案した。CMAL-Netは歩行者固有属性認識タスクにおいて優れた認識精度を出しただけではなく、汎用性のある詳細認識手法として、標準の詳細認識ベンチマークデータセット(FGVC AircraftとStanford Cars)においてもstate-of-the-artの認識精度を達成した。当初提案したCNN-STN-CNNモデルの代替手法として今後も活用していく予定である。研究項目[4]について、「要注意歩行者」の判定ルールを学習するために、一定数の学習サンプルが必要である。令和4年度は、学習サンプルの収集方針を検討して、収集作業を開始したが、十分な数のサンプルを収集するにはまだ時間を要する。
This study aims to establish the goal of early traffic hazard avoidance support and detection technology "pay attention to pedestrians." This goal includes: [1] Development of recognition techniques for pedestrian detection and environmental attributes (3D position, shadow status);[2] Development of detailed recognition techniques for pedestrian inherent attributes (age, product, clothing);[3] Development of recognition techniques for pedestrian movement attributes (direction, speed, direction, speed variability); and [4] Development of determination techniques for "Attention to pedestrians". [1][2][4][5][6][7][8][9] Research project [1]:"2.5D candidate domain generation": pedestrian detection, environmental attribute recognition, simultaneous behavior, key recognition. In 2004, the Ministry of Finance issued a large-scale evaluation report on the implementation of the basic implementation of the system, the implementation of the system, and the implementation of the system. Research project [2]: Detailed understanding of Cross-layer Mutual Attention Learning Network (CMAL-Net) CMAL-Net has achieved the recognition accuracy of the inherent attribute recognition of pedestrians, the detailed recognition method of universality, and the detailed recognition of standards (FGVC Aircraft Stanford Cars). The original proposal CNN-STN-CNN replacement method will be used in the future Research item [4]:"Pay attention to walking" judgment group, study group, a certain number of study group, study group, In 2004, we will review the collection policy, start the collection process, and schedule the collection process.

项目成果

期刊论文数量(0)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)
Toward Extremely Lightweight Distracted Driver Recognition With Distillation-Based Neural Architecture Search and Knowledge Transfer
Content Matters: concept-based explainable network pruning
内容很重要:基于概念的可解释网络修剪
  • DOI:
  • 发表时间:
    2022
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Yinan Yang;Ying Ji;Yu Wang;Heng Qi and Jien Kato
  • 通讯作者:
    Heng Qi and Jien Kato
One-shot Network Pruning at Initialization with Discriminative Image Patches
  • DOI:
    10.48550/arxiv.2209.05683
  • 发表时间:
    2022-09
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Yinan Yang;Yi Ji;Yu Wang;Heng Qi;Jien Kato
  • 通讯作者:
    Yinan Yang;Yi Ji;Yu Wang;Heng Qi;Jien Kato
Contrastive Representation Learning for Expression Recognition from Masked Face Images
Learn from each other to Classify better: Cross-layer mutual attention learning for fine-grained visual classification
  • DOI:
    10.1016/j.patcog.2023.109550
  • 发表时间:
    2023-03
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Dichao Liu;Long Zhao;Yu Wang;Jien Kato
  • 通讯作者:
    Dichao Liu;Long Zhao;Yu Wang;Jien Kato
{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ monograph.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ sciAawards.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ conferencePapers.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ patent.updateTime }}

WANG YU其他文献

Sphingosine kinase type 1-interacting protein regulates incretin secretion and fat composition
鞘氨醇激酶 1 型相互作用蛋白调节肠促胰岛素分泌和脂肪成分
  • DOI:
  • 发表时间:
    2017
  • 期刊:
  • 影响因子:
    0
  • 作者:
    LIU YANYAN;HARASHIMA SHIN-ICHI;WANG YU;INAGAKI NOBUYA
  • 通讯作者:
    INAGAKI NOBUYA
Compare the different electro-acupuncture on inflammatory response signals in cerebral ischemiareperfusion rats
  • DOI:
    10.1016/j.imr.2015.04.294
  • 发表时间:
    2015-05-01
  • 期刊:
  • 影响因子:
  • 作者:
    WANG YU;Sun Linlin;Guo Zhuo;Zhang Xuhui;Song Chengzhi
  • 通讯作者:
    Song Chengzhi

WANG YU的其他文献

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

{{ truncateString('WANG YU', 18)}}的其他基金

Development of Finegrained and Explainable Violence Rating Approaches
细粒度且可解释的暴力评级方法的开发
  • 批准号:
    20K19831
  • 财政年份:
    2020
  • 资助金额:
    $ 2.66万
  • 项目类别:
    Grant-in-Aid for Early-Career Scientists
A Study on Practical Visual Violence Rating
实用视觉暴力评级研究
  • 批准号:
    17K12714
  • 财政年份:
    2017
  • 资助金额:
    $ 2.66万
  • 项目类别:
    Grant-in-Aid for Young Scientists (B)
{{ showInfoDetail.title }}

作者:{{ showInfoDetail.author }}

知道了