人間のジェスチャの意図を選択的に理解するヒューマンインタフェースシステム
一种有选择地理解人类手势意图的人机界面系统
基本信息
- 批准号:09221217
- 负责人:
- 金额:$ 1.22万
- 依托单位:
- 依托单位国家:日本
- 项目类别:Grant-in-Aid for Scientific Research on Priority Areas
- 财政年份:1997
- 资助国家:日本
- 起止时间:1997 至 无数据
- 项目状态:已结题
- 来源:
- 关键词:
项目摘要
本研究では,ジェスチャによりロボットに指令を送ることのできるシステムを検討した.具体的には以下の2点について研究を行った.1.人間の手による指示のジェスチャを認識するわけだが,人間の手は意識しないでもいろいろと動いている.その動きの中から指示ジェスチャだけを選択的に認識するために,他の無意識的な非言語的行動の情報の利用を検討した.実際に検討したのは顔の向きである.ロボットに指令を送る際は人間はロボットの方を向いて指示を送るのが自然と考えられる.従って,人間の顔の向きを求め,それがロボットを向いている際の手の動きだけを指示のジェスチャとして認識するようにした.実際に手の指示した方向に動く小型移動ロボットシステムを開発し,それを用いた実験で有効性を確認した.2.ロボットの方が人間の指示を完全に理解できればよいが,うまくいかないこともある.従来は,そうなるとロボットの作業が続行できなかった.そこで,そのような場合には,ロボットの方から何が分かって何が分からないのか,現在の自分の状況を人間に伝えて,人間から助言をもらい作業を続けられないかと考えた.これを人間に負担なく行うために,人間とロボットの双方が音声言語とジェスチャで情報を伝え合う方式を検討した.具体的には人間が手で指し示すジェスチャと音声で指示した物体をとってくるロボットを開発した.ロボットは指示された物体が視覚で認識できないときに人間に音声と行動で知らせる.そして,人間からジェスチャと音声で認識の失敗を回復するための情報を得る.この言語と非言語的行動の両者を用いた対話により,多様な状況で作業を完遂できるロボットシステムが実現できた.
This study is to investigate the possible causes of death. The concrete research is carried out in the following two points: 1. The human hand is instructed to understand the human hand, and the human hand is conscious of the human hand. The use of unconscious, non-verbal action information is discussed. In the meantime, I'm going to go to the bathroom. The command is sent to the right side of the room. The command is sent to the right side of the room. The command is sent to the right side of the room. The human face is moving towards the middle of the world, and the hand is moving towards the middle of the world. The direction of movement of the hand is small, and the direction of movement of the hand is small, and the direction of movement of the hand is small. It's not like I'm going to be able to do this. When you're in trouble, you're in trouble. The burden of the world is on both sides of the voice and speech. The concrete is the hand, the sound, the object, the opening. The object is visible, the sound is visible, the action is visible. The world is full of voices and voices, and the world is full of voices. The speech and non-speech actions of the two sides are used to respond to each other, and the various conditions of the work are completed.
项目成果
期刊论文数量(8)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)
K.H.Jo, Y.Kuno, and Y.Shirai: "Manipulative hand gesture recognition using task knowledge for human computer interaction" Proc.3rd IEEE International Conference on Face and Gesture Recognition. (発表予定). (1998)
K.H.Jo、Y.Kuno 和 Y.Shirai:“利用任务知识进行人机交互的操控手势识别”Proc.3rd IEEE 国际面部和手势识别会议(即将发表)。
- DOI:
- 发表时间:
- 期刊:
- 影响因子:0
- 作者:
- 通讯作者:
K.H.Jo, Y.Kuno, and Y.Shirai: "Context-based recognition of manipulative hand gestures for human computer interaction" Proc.3rd Asian Conference on Computer Vision. 2. 368-375 (1998)
K.H.Jo、Y.Kuno 和 Y.Shirai:“基于上下文的人机交互操作手势识别”Proc.第三届亚洲计算机视觉会议。
- DOI:
- 发表时间:
- 期刊:
- 影响因子:0
- 作者:
- 通讯作者:
K.Hayashi, Y.Kuno, and Y.Shirai: "Pointing gesture recognition system permitting user's freedom of movement" Proc.Workshop on Perceptual User Interfaces. 16-19 (1997)
K.Hayashi、Y.Kuno 和 Y.Shirai:“允许用户自由移动的指向手势识别系统”Proc.Workshop on 感知用户界面。
- DOI:
- 发表时间:
- 期刊:
- 影响因子:0
- 作者:
- 通讯作者:
Y.Kuno, T.Ishiyama, K.H.Jo, N.Shimada, and Y.Shirai: "Vision-based human interface system selectively recognizing intentional hand gestures" Proc.IASTED Int.Conf.on Computer Graphics and Imaging. (発表予定). (1998)
Y.Kuno、T.Ishiyama、K.H.Jo、N.Shimada 和 Y.Shirai:“基于视觉的人机界面系统选择性地识别有意的手势”Proc.IASTED Int.Conf.on 计算机图形和成像(待提交。 )(1998)
- DOI:
- 发表时间:
- 期刊:
- 影响因子:0
- 作者:
- 通讯作者:
{{
item.title }}
{{ item.translation_title }}
- DOI:
{{ item.doi }} - 发表时间:
{{ item.publish_year }} - 期刊:
- 影响因子:{{ item.factor }}
- 作者:
{{ item.authors }} - 通讯作者:
{{ item.author }}
数据更新时间:{{ journalArticles.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ monograph.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ sciAawards.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ conferencePapers.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ patent.updateTime }}
久野 義徳其他文献
映像解析に基づく頑健・高速な心拍数計測手法
基于视频分析的鲁棒快速心率测量方法
- DOI:
- 发表时间:
2018 - 期刊:
- 影响因子:0
- 作者:
大津 耕陽;Keya Das;福田 悠人;Antony Lam;小林 貴訓;久野 義徳 - 通讯作者:
久野 義徳
介護ロボット開発のための依頼開始場面の分析
护理机器人开发请求发起场景分析
- DOI:
- 发表时间:
2007 - 期刊:
- 影响因子:0
- 作者:
丹羽仁史;秋谷直矩;マシューバーデルスキ;久野 義徳;山崎 敬一 - 通讯作者:
山崎 敬一
久野 義徳的其他文献
{{
item.title }}
{{ item.translation_title }}
- DOI:
{{ item.doi }} - 发表时间:
{{ item.publish_year }} - 期刊:
- 影响因子:{{ item.factor }}
- 作者:
{{ item.authors }} - 通讯作者:
{{ item.author }}
{{ truncateString('久野 義徳', 18)}}的其他基金
予期的行為の相互参照を通じた介護場面におけるロボットの依頼理解
机器人通过相互参考预期动作来理解护理情况下的请求
- 批准号:
19024013 - 财政年份:2007
- 资助金额:
$ 1.22万 - 项目类别:
Grant-in-Aid for Scientific Research on Priority Areas
使用者が自立的に見えるロボット車椅子
一款让用户显得独立的机器人轮椅
- 批准号:
18650043 - 财政年份:2006
- 资助金额:
$ 1.22万 - 项目类别:
Grant-in-Aid for Exploratory Research
介護における依頼場面の社会学的分析とその工学的応用
护理请求情境的社会学分析及其工程应用
- 批准号:
18049010 - 财政年份:2006
- 资助金额:
$ 1.22万 - 项目类别:
Grant-in-Aid for Scientific Research on Priority Areas
人間協調マルチメディア相互支援による人間と環境の観察に基づくインタラクション
通过人类协作多媒体相互支持,基于人与环境观察的交互
- 批准号:
15017211 - 财政年份:2003
- 资助金额:
$ 1.22万 - 项目类别:
Grant-in-Aid for Scientific Research on Priority Areas
人間協調マルチメディア相互支援による人間と環境の観察に基づくインタラクション
通过人类协作多媒体相互支持,基于人与环境观察的交互
- 批准号:
14019012 - 财政年份:2002
- 资助金额:
$ 1.22万 - 项目类别:
Grant-in-Aid for Scientific Research on Priority Areas
人間協調マルチメディア相互支援による人間と環境の観察に基づくインタラクション
通过人类协作多媒体相互支持,基于人与环境观察的交互
- 批准号:
13224011 - 财政年份:2001
- 资助金额:
$ 1.22万 - 项目类别:
Grant-in-Aid for Scientific Research on Priority Areas (C)
相似海外基金
会話ロボットを用いて独居高齢者のフィジカルとメンタルをサポートするシステムの構築
使用对话机器人构建支持独居老年人身心健康的系统
- 批准号:
21K10636 - 财政年份:2021
- 资助金额:
$ 1.22万 - 项目类别:
Grant-in-Aid for Scientific Research (C)
Building a Design Theory for Virtual Teachers that Sustains Learners' Trust
为虚拟教师建立维持学习者信任的设计理论
- 批准号:
21K13649 - 财政年份:2021
- 资助金额:
$ 1.22万 - 项目类别:
Grant-in-Aid for Early-Career Scientists
Research for Spiking Neural Network for Tactile Information processing
触觉信息处理的尖峰神经网络研究
- 批准号:
20K21820 - 财政年份:2020
- 资助金额:
$ 1.22万 - 项目类别:
Grant-in-Aid for Challenging Research (Exploratory)
Development of a pet robot that promotes intimacy using the pupil response for close rapport
开发宠物机器人,利用瞳孔反应促进亲密关系
- 批准号:
19K12890 - 财政年份:2019
- 资助金额:
$ 1.22万 - 项目类别:
Grant-in-Aid for Scientific Research (C)
Workspace optimization system and algorithm using autonomous robotic tabletops and walltops
使用自主机器人桌面和墙壁的工作空间优化系统和算法
- 批准号:
17K00262 - 财政年份:2017
- 资助金额:
$ 1.22万 - 项目类别:
Grant-in-Aid for Scientific Research (C)
Manipulating the robot as though it became a part of body -a new aspect in the robotic system involving multi-sensory illusion-
操纵机器人,就好像它成为身体的一部分一样——机器人系统的一个新方面,涉及多感官错觉——
- 批准号:
15K12086 - 财政年份:2015
- 资助金额:
$ 1.22万 - 项目类别:
Grant-in-Aid for Challenging Exploratory Research
人間・ロボット協働フィジカルインタラクションのための相反性のシンセシス
人机协作物理交互互惠性的综合
- 批准号:
15J06058 - 财政年份:2015
- 资助金额:
$ 1.22万 - 项目类别:
Grant-in-Aid for JSPS Fellows
Research of a Control Method of Rehabilitation Robot to Induce Embodiment in the Brain
康复机器人脑内体现控制方法研究
- 批准号:
26242061 - 财政年份:2014
- 资助金额:
$ 1.22万 - 项目类别:
Grant-in-Aid for Scientific Research (A)
Control of wearable robot for paraplegics aiming at faster walking assistance
控制可穿戴机器人以帮助截瘫患者更快行走
- 批准号:
25820085 - 财政年份:2013
- 资助金额:
$ 1.22万 - 项目类别:
Grant-in-Aid for Young Scientists (B)
Three dimensional visual-auditory-tactile feedback for teleoperataion
用于远程操作的三维视觉-听觉-触觉反馈
- 批准号:
24300086 - 财政年份:2012
- 资助金额:
$ 1.22万 - 项目类别:
Grant-in-Aid for Scientific Research (B)














{{item.name}}会员




