個人適応能力を有する高次マルチモーダルユーザインタフェースに関する研究
具有个体适应性的高阶多模态用户界面研究
基本信息
- 批准号:14019071
- 负责人:
- 金额:$ 2.69万
- 依托单位:
- 依托单位国家:日本
- 项目类别:Grant-in-Aid for Scientific Research on Priority Areas
- 财政年份:2002
- 资助国家:日本
- 起止时间:2002 至 无数据
- 项目状态:已结题
- 来源:
- 关键词:
项目摘要
本研究では,直接的な3次元動作入力を基にした仮想環境とのインタラクションを実現するための要素技術として画像認識による非接触な3次元身体動作の計測手法を開発し利用した.非接触での身体動作の計測は,効率やそのスマートさから仮想空間と実空間とのシームレス化に重要である.しかしカメラを用いて動作計測を行う場合,身体動作を精度よく推定することが一般に困難な課題であり,詳細な動作を長時間安定に推定するための手法の開発がまず必要となる.そこで本研究では,比較的安定に推定可能な手や顔の動作情報のみを計測し,身体動作を再現するための姿勢推定を自動的に行うアプローチにより,リアルな身体動作を仮想空間上に生成することを目指した.また,仮想空間と実空間での円滑なインタラクションを遂行するために,計測した身体動作の入力をもとにユーザの本来意図した動作を適切に再現するための誘発型ユーザインタフェースの枠組みについても検討した.インタラクションを円滑に行うために,実世界において扱われるアフォーダンスの概念を仮想空間上へ応用する.環境に相当する仮想空間において,オブジェクト(仮想物体)が,人間に相当するアバター(人体モデル)に対し意味・価値のある情報,ここでは動作情報をアフォードするという捉え方である.つまり,仮想空間に存在する様々なオブジェクトにアバターの動作に関連する情報を事前情報として定義しておき,アバターの動作や他のオブジェクトとの関係に応じてアフォードされた動作候補の中から適切なものをピックアップすることで,リアルな動作を生成することができる.
This study aims to explore the application of direct 3-D motion measurement techniques based on environmental factors and non-contact 3-D body motion measurement techniques. The measurement of non-contact body movements is important for efficiency and space. In the case of motion measurement, it is necessary to estimate the accuracy of body motion in general and difficult problems, and to estimate the stability of detailed motion for a long time. In this study, we compared the possibility of stable estimation with the measurement of motion information of hand and face, and the automatic generation of posture estimation with the reproduction of body motion. In addition to the above, we can measure the force of body movement and the original intention of body movement. The concept of "space" is to be used in the world. The environment corresponds to the ideal space, the ideal object, the human body, the meaning, the value, the action information, and the direction. The information related to the action of the missing person in the thought space is pre-defined, the action of the missing person is related to the relationship between the information and the action candidate.
项目成果
期刊论文数量(12)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)
米元聡, 谷口 倫一郎: "A Direct Manipulation Interface with Vision-based Human Figure Control"Proc. HCI International 2003. (発表予定). (2003)
Satoshi Yonemoto、Rinichiro Taniguchi:“基于视觉的人体图形控制的直接操纵界面”Proc. HCI International 2003。(待提交)。
- DOI:
- 发表时间:
- 期刊:
- 影响因子:0
- 作者:
- 通讯作者:
石井繁範, 有田大作, 谷口倫一郎: "Real-time Head Pose Estimation With Stereo Vision"Proc. 9th Korea-Japan Joint Workshop on Frontiers of Computer Vision(FCV2003). 79-83 (2003)
Shigenori Ishii、Daisaku Arita、Rinichiro Taniguchi:“立体视觉实时头部姿势估计”Proc。第九届韩日计算机视觉前沿联合研讨会(FCV2003)。
- DOI:
- 发表时间:
- 期刊:
- 影响因子:0
- 作者:
- 通讯作者:
米元聡, 中野裕史, 谷口 倫一郎: "画像認識による身体動作入力にもとづく仮想カメラ視点の制御"インタラクション03. 31-32 (2003)
Satoshi Yonemoto、Hiroshi Nakano、Rinichiro Taniguchi:“使用图像识别基于身体运动输入控制虚拟摄像机视点” Interaction 03. 31-32 (2003)
- DOI:
- 发表时间:
- 期刊:
- 影响因子:0
- 作者:
- 通讯作者:
米元聡, 谷口 倫一郎: "3次元人体動作の解析・生成による実時間インタラクション実現"画像の認識・理解シンポジウム(MIRU2002). II. 323-328 (2002)
Satoshi Yonemoto、Rinichiro Taniguchi:“通过分析和生成 3D 人体运动实现实时交互”图像识别和理解研讨会 (MIRU2002)。
- DOI:
- 发表时间:
- 期刊:
- 影响因子:0
- 作者:
- 通讯作者:
米元聡, 谷口 倫一郎: "Vision-based 3D Direct Manipulation Interface for Smart Interaction"Proc. of Int. Conf. on Pattern Recognition. II. 655-658 (2002)
Satoshi Yonemoto,Rinichiro Taniguchi:“基于视觉的 3D 直接操作界面”国际模式识别会议。
- DOI:
- 发表时间:
- 期刊:
- 影响因子:0
- 作者:
- 通讯作者:
{{
item.title }}
{{ item.translation_title }}
- DOI:
{{ item.doi }} - 发表时间:
{{ item.publish_year }} - 期刊:
- 影响因子:{{ item.factor }}
- 作者:
{{ item.authors }} - 通讯作者:
{{ item.author }}
数据更新时间:{{ journalArticles.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ monograph.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ sciAawards.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ conferencePapers.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ patent.updateTime }}
谷口 倫一郎其他文献
多様な分析粒度を実現するラーニングアナリティクス基盤の開発
开发实现多样化分析粒度的学习分析平台
- DOI:
- 发表时间:
2022 - 期刊:
- 影响因子:0
- 作者:
山田 政寛;Lu Min;谷口 雄太;大久保 文哉;陳 莉;谷口 倫一郎 - 通讯作者:
谷口 倫一郎
RGB-D画像を用いた植物生育特徴量の計測とその精度評価
利用RGB-D图像测量植物生长特征并评估其准确性
- DOI:
- 发表时间:
2017 - 期刊:
- 影响因子:0
- 作者:
境 淳成;岡安 崇史;吉永 崇;有田 大作;谷口 倫一郎;井上 英二;平井 康丸;光岡 宗司 - 通讯作者:
光岡 宗司
Image Processing for Personalized Reality
个性化现实的图像处理
- DOI:
- 发表时间:
2018 - 期刊:
- 影响因子:0
- 作者:
高場 雄太郎;岡安 崇史;吉永 崇;有田 大作;谷口 倫一郎;安武 大輔;北野 雅治;井上 英二;平井 康丸;光岡 宗司;Kiyoshi Kiyokawa - 通讯作者:
Kiyoshi Kiyokawa
サイバーフィジカルシステムに基づく社会サービスの構築について
关于基于信息物理系统的社会服务建设
- DOI:
- 发表时间:
2017 - 期刊:
- 影响因子:0
- 作者:
Chang Liu;Alexander Plopski;Kiyoshi Kiyokawa;Photchara Ratsamee;Jason Orlosky;谷口 倫一郎 - 通讯作者:
谷口 倫一郎
谷口 倫一郎的其他文献
{{
item.title }}
{{ item.translation_title }}
- DOI:
{{ item.doi }} - 发表时间:
{{ item.publish_year }} - 期刊:
- 影响因子:{{ item.factor }}
- 作者:
{{ item.authors }} - 通讯作者:
{{ item.author }}
{{ truncateString('谷口 倫一郎', 18)}}的其他基金
RGB-Dカメラを用いた密な3D計測:動的シーン,クラウドソーシング等への適用
使用 RGB-D 相机进行密集 3D 测量:应用于动态场景、众包等。
- 批准号:
15F15723 - 财政年份:2015
- 资助金额:
$ 2.69万 - 项目类别:
Grant-in-Aid for JSPS Fellows
直接操作を基にした個人適応能力を有する誘発型ユーザインタフェースに関する研究
基于直接操作的具有个人适应能力的诱导式用户界面研究
- 批准号:
16016268 - 财政年份:2004
- 资助金额:
$ 2.69万 - 项目类别:
Grant-in-Aid for Scientific Research on Priority Areas
直接操作を基にした個人適応能力を有する誘発型ユーザインタフェースに関する研究
基于直接操作的具有个人适应能力的诱导式用户界面研究
- 批准号:
15017270 - 财政年份:2003
- 资助金额:
$ 2.69万 - 项目类别:
Grant-in-Aid for Scientific Research on Priority Areas
個人適応能力を有する高次マルチモーダルユーザインタフェースに関する研究
具有个体适应性的高阶多模态用户界面研究
- 批准号:
13224074 - 财政年份:2001
- 资助金额:
$ 2.69万 - 项目类别:
Grant-in-Aid for Scientific Research on Priority Areas (C)
画像処理の高度化のための超並列システムに関する基礎的研究
先进图像处理大规模并行系统的基础研究
- 批准号:
02750287 - 财政年份:1990
- 资助金额:
$ 2.69万 - 项目类别:
Grant-in-Aid for Encouragement of Young Scientists (A)
画像理解システムのための知識表現機構を有する画像処理用言語に関する研究
具有图像理解系统知识表示机制的图像处理语言研究
- 批准号:
59750284 - 财政年份:1984
- 资助金额:
$ 2.69万 - 项目类别:
Grant-in-Aid for Encouragement of Young Scientists (A)
特徴抽出型画像データベースの基礎的研究
特征提取型图像数据库基础研究
- 批准号:
57750310 - 财政年份:1982
- 资助金额:
$ 2.69万 - 项目类别:
Grant-in-Aid for Encouragement of Young Scientists (A)
相似海外基金
仮想・複合世界指向インタラクションとその応用に関する研究
面向虚拟/复杂世界的交互及其应用研究
- 批准号:
24K15250 - 财政年份:2024
- 资助金额:
$ 2.69万 - 项目类别:
Grant-in-Aid for Scientific Research (C)
一人称ライフログによる社会的インタラクションの理解と応用
通过第一人称生活日志理解和应用社交互动
- 批准号:
23K24890 - 财政年份:2024
- 资助金额:
$ 2.69万 - 项目类别:
Grant-in-Aid for Scientific Research (B)
エモーショナルAI:価値を持つAIと人の感情的インタラクションの多面的理解
情感人工智能:通过承载价值的人工智能对人类情感互动的多方面理解
- 批准号:
24H00718 - 财政年份:2024
- 资助金额:
$ 2.69万 - 项目类别:
Grant-in-Aid for Scientific Research (A)
共感力向上を目的としたスマートフォンと共生するインタラクション基盤システム
与智能手机共存的交互平台系统,提高同理心
- 批准号:
24K20820 - 财政年份:2024
- 资助金额:
$ 2.69万 - 项目类别:
Grant-in-Aid for Early-Career Scientists
日本の小学校英語教育における授業のインタラクション分析
日本小学英语教育中的课堂互动分析
- 批准号:
24K16126 - 财政年份:2024
- 资助金额:
$ 2.69万 - 项目类别:
Grant-in-Aid for Early-Career Scientists
視線遷移に着目したコミュニケーションエイドを用いた会話のインタラクションの分析
使用关注目光转换的交流辅助工具分析对话交互
- 批准号:
24K15858 - 财政年份:2024
- 资助金额:
$ 2.69万 - 项目类别:
Grant-in-Aid for Scientific Research (C)
交通参加者の状況認識に基づいた自動運転バスとのインタラクション評価手法の構築
开发基于交通参与者态势感知的自动驾驶巴士交互评估方法
- 批准号:
24K15031 - 财政年份:2024
- 资助金额:
$ 2.69万 - 项目类别:
Grant-in-Aid for Scientific Research (C)
安全な光学式マイクロフォンの開発と新たなインタラクションの提案
安全光学麦克风的开发及新交互的提出
- 批准号:
24KJ0497 - 财政年份:2024
- 资助金额:
$ 2.69万 - 项目类别:
Grant-in-Aid for JSPS Fellows
感性インタラクション時の音声・触覚モダリティ融合による多様な認知症の早期検出
通过感官交互过程中音频和触觉方式的融合,及早发现各种类型的痴呆症
- 批准号:
24H00741 - 财政年份:2024
- 资助金额:
$ 2.69万 - 项目类别:
Grant-in-Aid for Scientific Research (A)
ひとり遊びを誘発するインタラクション技術による認知症者の内面世界可視化の研究
使用引发单独游戏的交互技术可视化痴呆症患者的内心世界的研究
- 批准号:
24K02977 - 财政年份:2024
- 资助金额:
$ 2.69万 - 项目类别:
Grant-in-Aid for Scientific Research (B)