動画像理解のための時空間情報設計の方法論構築
视频图像理解时空信息设计方法论的建立
基本信息
- 批准号:22K12090
- 负责人:
- 金额:$ 2.66万
- 依托单位:
- 依托单位国家:日本
- 项目类别:Grant-in-Aid for Scientific Research (C)
- 财政年份:2022
- 资助国家:日本
- 起止时间:2022-04-01 至 2025-03-31
- 项目状态:未结题
- 来源:
- 关键词:
项目摘要
本研究の目的は,動画像理解における時空間特徴量の取得方法について,新しい方法論を構築することである.通常の動画像認識では,空間的な情報と時間的な情報を組み合わせて時空間情報として扱うことが一般的である.しかし本研究では,空間情報と時間情報を高いレベルで分離するという新しい手法に取り組む.従来のアプローチでは,単に別々に特徴量を抽出することが一般的だが,本研究では,時間と空間の情報を関連付けつつも分離するために,所望の性質を満たす特徴量を設計するというアプローチを取る.この手法は,様々な動画認識タスクに応用することが可能である.この新しい枠組みによって得られる特徴量は,例えば動画像の中での物体検出や行動認識などのタスクにおいて有用な情報となり得る.また,時空間情報の分離により,動画像の解析や処理の効率性も向上することが期待される.さらに,この手法は将来的にはロボットや自動運転などの領域において,高度な環境理解や行動予測に役立つ可能性がある.
The purpose of this study is to understand the animation image's acquisition method of time-space special quantities and to construct a new methodology. The usual animations are familiar with the information of space, the information of time, and the information of time and space.しかしThis research is では, space intelligence and time intelligence を高いレベルでseparationするという新しいtechniqueにtakeりgroupむ.従来のアプローチでは, 単にbie々に特徴quantityをdraw out the することがgeneral だが, this study では, time and space の情The report is related to the separate payment, and the desired nature is the desired quality. The design is the design of the design.このtechniqueは, 様々なanimation recognizes タスクに応 and uses することがpossibleである.この新しい枠组みによって得られる特徴quantityは, ExampleえばAnimation の中でのObject検出やaction recognitionなどのタスクにおいてusefulなinformationとなりgetる.また, the separation of time and space information, the efficiency of analysis and processing of animated images, the upward expectation, and the expectation.さらに, このtechniques, future にはロボットやautomatic operation, などのfields, において, highly なenvironmental understanding, action prediction, servicing establishment, possibility, がある.
项目成果
期刊论文数量(0)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)
ObjectMix: Data Augmentation by Copy-Pasting Objects in Videos for Action Recognition
- DOI:10.1145/3551626.3564941
- 发表时间:2022-04
- 期刊:
- 影响因子:0
- 作者:Jun Kimata;Tomoya Nitta;Toru Tamaki
- 通讯作者:Jun Kimata;Tomoya Nitta;Toru Tamaki
ObjectMix:動画像中の物体のコピー・ペーストによる動作認識のためのデータ拡張
ObjectMix:通过在视频图像中复制和粘贴对象来增强运动识别的数据增强
- DOI:
- 发表时间:2022
- 期刊:
- 影响因子:0
- 作者:木全潤;仁田智也;玉木 徹
- 通讯作者:玉木 徹
インスタンスセグメンテーションを用いたシャープなアテンションマップ生成による動作認識
通过使用实例分割生成清晰的注意力图来进行动作识别
- DOI:
- 发表时间:2022
- 期刊:
- 影响因子:0
- 作者:仁田智也;平川翼;藤吉弘亘;玉木徹
- 通讯作者:玉木徹
{{
item.title }}
{{ item.translation_title }}
- DOI:
{{ item.doi }} - 发表时间:
{{ item.publish_year }} - 期刊:
- 影响因子:{{ item.factor }}
- 作者:
{{ item.authors }} - 通讯作者:
{{ item.author }}
数据更新时间:{{ journalArticles.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ monograph.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ sciAawards.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ conferencePapers.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ patent.updateTime }}
玉木 徹其他文献
大腸内視鏡リアルタイム診断支援のためのプロトタイプシステムの開発
开发结肠镜检查实时诊断支持原型系统
- DOI:
- 发表时间:
2016 - 期刊:
- 影响因子:0
- 作者:
岡本 拓巳;小出 哲士;清水 達也;杉 幸樹;Anh-Tuan Hoang;玉木 徹;Bisser Raytchev;金田 和文;吉田 成人;三重野 寛;田中 信治 - 通讯作者:
田中 信治
現代ネパールの教育熱と社会変化―「良い教育」を志向する女性の日常生活から―
现代尼泊尔的教育热情与社会变迁:来自渴望“良好教育”的女性的日常生活
- DOI:
- 发表时间:
2016 - 期刊:
- 影响因子:0
- 作者:
岡本 拓巳;小出 哲士;Anh Tuan Hoang;玉木 徹;Bisser Raytchev;金田 和文;吉田 成人;三重野 寛;田中 信治;戸石 浩司;菅原 崇之;辻 雅之;小田川 真之;丹場 展雄;杉原 利彦;杉原 尚樹;安念真衣子 - 通讯作者:
安念真衣子
リアルタイム大腸内視鏡画像診断支援システムのためのCNN特徴とSVM分類を用いた識別手法
基于CNN特征和SVM分类的实时结肠镜图像诊断支持系统的识别方法
- DOI:
- 发表时间:
2017 - 期刊:
- 影响因子:0
- 作者:
岡本 拓巳;小出 哲士;玉木 徹;Bisser Raytchev;金田 和文;吉田 成人;三重野 寛;田中 信治 - 通讯作者:
田中 信治
大腸がん診断支援のための画像認識プロトタイプシステム
支持结直肠癌诊断的图像识别原型系统
- DOI:
- 发表时间:
2018 - 期刊:
- 影响因子:0
- 作者:
岡本 拓巳;小出 哲士;Anh Tuan Hoang;玉木 徹;Bisser Raytchev;金田 和文;吉田 成人;三重野 寛;田中 信治;戸石 浩司;菅原 崇之;辻 雅之;小田川 真之;丹場 展雄;杉原 利彦;杉原 尚樹 - 通讯作者:
杉原 尚樹
視覚特性を考慮した陽性残像表現手法
考虑视觉特性的正残像表示方法
- DOI:
- 发表时间:
2012 - 期刊:
- 影响因子:0
- 作者:
三鴨 道弘;Marcos Slomp;Bisser Raytchev;玉木 徹;金田 和文 - 通讯作者:
金田 和文
玉木 徹的其他文献
{{
item.title }}
{{ item.translation_title }}
- DOI:
{{ item.doi }} - 发表时间:
{{ item.publish_year }} - 期刊:
- 影响因子:{{ item.factor }}
- 作者:
{{ item.authors }} - 通讯作者:
{{ item.author }}
{{ truncateString('玉木 徹', 18)}}的其他基金
糖尿病で生じる神経再生障害に対する性別を加味した効果的な運動療法の開発
开发有效的运动疗法,将性别考虑在内,治疗糖尿病引起的神经再生障碍
- 批准号:
22K17577 - 财政年份:2022
- 资助金额:
$ 2.66万 - 项目类别:
Grant-in-Aid for Early-Career Scientists
対象の規模に依存しない監視処理手法の開発
开发不依赖于目标规模的监控处理方法
- 批准号:
17700178 - 财政年份:2005
- 资助金额:
$ 2.66万 - 项目类别:
Grant-in-Aid for Young Scientists (B)
大規模商業施設における人物動向解析システム
大型商业设施人流趋势分析系统
- 批准号:
15700151 - 财政年份:2003
- 资助金额:
$ 2.66万 - 项目类别:
Grant-in-Aid for Young Scientists (B)
相似海外基金
深層学習を用いたドライブレコーダの映像解析による危険動作の自動検出
使用深度学习对行车记录仪进行视频分析,自动检测危险动作
- 批准号:
24K07963 - 财政年份:2024
- 资助金额:
$ 2.66万 - 项目类别:
Grant-in-Aid for Scientific Research (C)
手術鉗子動態・映像解析を用いた腹腔鏡手術熟練者の技術の言語化と手術教育への利用
使用手术钳动力学和视频分析对腹腔镜手术专家的技术进行语言化描述并用于外科教育
- 批准号:
24K00443 - 财政年份:2024
- 资助金额:
$ 2.66万 - 项目类别:
Grant-in-Aid for Scientific Research (B)
Advanced image analysis of semiconductor structures
半导体结构的高级图像分析
- 批准号:
2905133 - 财政年份:2024
- 资助金额:
$ 2.66万 - 项目类别:
Studentship
Histopathology image analysis for prostate cancer prognosis after radical prostatectomy
前列腺癌根治术后预后的组织病理学图像分析
- 批准号:
478494 - 财政年份:2023
- 资助金额:
$ 2.66万 - 项目类别:
Operating Grants
Deep Learning Image Analysis Algorithms to Improve Oral Cancer Risk Assessment for Oral Potentially Malignant Disorders
深度学习图像分析算法可改善口腔潜在恶性疾病的口腔癌风险评估
- 批准号:
10805177 - 财政年份:2023
- 资助金额:
$ 2.66万 - 项目类别:
High-performance deep neural networks for medical image analysis
用于医学图像分析的高性能深度神经网络
- 批准号:
10723553 - 财政年份:2023
- 资助金额:
$ 2.66万 - 项目类别:
Customizable Artificial Intelligence for the Biomedical Masses: Development of a User-Friendly Automated Machine Learning Platform for Biology Image Analysis.
面向生物医学大众的可定制人工智能:开发用于生物图像分析的用户友好的自动化机器学习平台。
- 批准号:
10699828 - 财政年份:2023
- 资助金额:
$ 2.66万 - 项目类别:
Leveraging language understanding to decrease uncertainty measurements in medical image analysis
利用语言理解来减少医学图像分析中的不确定性测量
- 批准号:
2874454 - 财政年份:2023
- 资助金额:
$ 2.66万 - 项目类别:
Studentship
Development of three-dimensional image analysis technology in the echographic diagnosis for developmental dysplasia of the hip.
三维图像分析技术在发育性髋关节发育不良超声诊断中的进展
- 批准号:
23K08671 - 财政年份:2023
- 资助金额:
$ 2.66万 - 项目类别:
Grant-in-Aid for Scientific Research (C)














{{item.name}}会员




