聴覚・視覚の複数レベル実時間情報統合の研究

听觉与视觉多级实时信息集成研究

基本信息

  • 批准号:
    14019051
  • 负责人:
  • 金额:
    $ 4.22万
  • 依托单位:
  • 依托单位国家:
    日本
  • 项目类别:
    Grant-in-Aid for Scientific Research on Priority Areas
  • 财政年份:
    2002
  • 资助国家:
    日本
  • 起止时间:
    2002 至 无数据
  • 项目状态:
    已结题

项目摘要

平成14年度は、2本のマイクロフォンを用いた方向通過型フィルタ(Direction-Pass Filter)を提案し、この分離性能の音源方向依存性(「聴覚中心窩(auditory fovea)」と呼ぶ)を明らかにし、聴覚中心窩を積極的に活用したアクティブオーディションを実現した。さらに、大阪大学の石黒教授グループ作成の人間に似た外観を持つヒューマノイドReplieの上にも方向通過型フィルターを実装し、DPFの高移植性を確認するとともに、ヒューマノイドヒューマンインターラクションの実験環境を確立した。これらの成果は朝日新聞夕刊1面に報道されるとともに、IROS論文賞、船井情報科学振興賞などを受賞した。主な研究項目は以下の通りである。1.聴覚的中心窩-混合音から音声分離を行う方向通過型フィルタの方向依存性を評価し、正面方向と真横方向とでは4倍以上の精度の違いがあることを発見した。この現象は、人間の視覚で中心の解像度が高く、周辺は解像度が劣るという中心窩(fovea)に相当しており、「聴覚的中心窩(auditory fovea)」と名付けた。話者や音源に正対して聞く機能を実現するために、聴覚的中心窩を積極的に活用した注意制御システムをロボットに実装中である。2.注意制御部-実時間複数話者追跡システムを用いた注意制御部の設計に、タスク指向(task-oriented)とソーシャル性指向(socially-oriented)という2つの原理を適用した。タスク指向制御では、具体的なタスクである受付ロボットのために、音と顔が一致したストリームに注意を向けるように、一方、ソーシャル性指向制御では、インターラクションの相手の声にまず反応するように、ロボットの挙動選択を実現した。3.ロボットの個性-Interpersonal theoryに基づいた対人関係での個性をdominant/submissiveとfriendly/hostileという2軸で表現することにより、上記のタスク指向・ソーシャル性指向とを組合せた挙動プラニングの構想を提案し、プロトタイプを実装した。
In 2014, the Direction-Pass Filter (Direction-Pass Filter) was proposed, and the dependence of the separation performance on the sound source direction ("auditory fovea") was clearly demonstrated. In addition, Professor Ishiguro of Osaka University has established the operating environment for DPF production, which is similar to that of human beings. The results of the Asahi Shimbun were reported on the first day of the month, and the IROS paper was awarded. The main research project is the following. 1. The center pit of the sound is mixed with the sound separation direction. The direction dependence of the sound is evaluated. The front direction is more than 4 times the accuracy of the sound separation. This phenomenon, human vision center resolution is high, peripheral resolution is poor, central fovea is equivalent to "auditory fovea" and the name is paid. The speaker's voice is heard in the center of the voice, and the speaker's voice is heard in the center. 2. Attention Control Department-Time Multiple Speaker Tracking System Application Principle of Attention Control Department Design, Task-oriented and Socially-oriented The direction control, the specific direction control, the specific direction control. 3. The personality of the person-Interpersonal theory is based on the personality of the person, dominant/submissive, friendly/hostile, 2-axis performance.

项目成果

期刊论文数量(14)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)
中臺一博, 奥乃博, 北野宏明: "ヒューマノイドロボットを対象としたアクティブオーディション"人工知能学会誌. 18・2F. 104-113 (2003)
Kazuhiro Nakadai、Hiroshi Okuno、Hiroaki Kitano:“人形机器人的主动试镜”日本人工智能学会杂志 18・2F 104-113 (2003)。
  • DOI:
  • 发表时间:
  • 期刊:
  • 影响因子:
    0
  • 作者:
  • 通讯作者:
Nakadai, Okuno, Kitano: "Real-Time Auditory and Visual Multiple-Speaker Tracking For Human-Robot Interaction"Journal of Robotics and Mechatronics, special issue on Human Robot Interaction. 14・5. 479-489 (2002)
Nakadai、Okuno、Kitano:“人机交互的实时听觉和视觉多说话者跟踪”机器人与机电一体化杂志,人机交互特刊 14・5 (2002)。
  • DOI:
  • 发表时间:
  • 期刊:
  • 影响因子:
    0
  • 作者:
  • 通讯作者:
日本認知科学会: "『認知科学辞典』推論・問題解決,コミュニケーションとネットワーク,CHインターフェース"共立出版. 1026+x (2002)
日本认知科学会:“‘认知科学词典’推理/问题解决、通信和网络,CH Interface”Kyoritsu Shuppan 1026+x (2002)。
  • DOI:
  • 发表时间:
  • 期刊:
  • 影响因子:
    0
  • 作者:
  • 通讯作者:
Nakadai, Hidai, Okuno, Kitano: "Real-Time Active Human Tracking by Hierarchical Integration of Audition and Vision"Proceedings of IEEE/RAS International Conference on Robots and Automation (ICRA-2002). 1043-1049 (2002)
Nakadai、Hidai、Okuno、Kitano:“通过听觉和视觉的分层集成进行实时主动人体跟踪”IEEE/RAS 国际机器人与自动化会议论文集 (ICRA-2002)。
  • DOI:
  • 发表时间:
  • 期刊:
  • 影响因子:
    0
  • 作者:
  • 通讯作者:
Nakadai, Okuno, Kitano: "Exploiting Auditory Fovea in Humanoid-Human Interaction"Proceeings of Eighteenth National Conference on Artificial Intelligence (AAAI-2002). 431-438 (2002)
Nakadai、Okuno、Kitano:“在人机交互中利用听觉中央凹”第十八届全国人工智能会议论文集 (AAAI-2002)。
  • DOI:
  • 发表时间:
  • 期刊:
  • 影响因子:
    0
  • 作者:
  • 通讯作者:
{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ monograph.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ sciAawards.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ conferencePapers.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ patent.updateTime }}

奥乃 博其他文献

ロボット聴覚技術を用いた鳥類の歌行動分析の試み - 複数のマイクロホンアレイを用いた二次元リアルタイム歌定位 -
尝试利用机器人听觉技术分析鸟类的歌唱行为 - 使用多个麦克风阵列进行二维实时歌曲定位 -
  • DOI:
  • 发表时间:
    2017
  • 期刊:
  • 影响因子:
    0
  • 作者:
    鈴木 麗璽;炭谷 晋司;中臺 一博;奥乃 博
  • 通讯作者:
    奥乃 博
複数時期のデータを用いたNAMセグメントによる個人認証
使用多个时期的数据使用 NAM 分段进行个人身份验证
  • DOI:
  • 发表时间:
    2007
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Sarker;B.K.;Yoshiyuki Nakatani;Yoshiaki Yasumura;Tetsuro Kitahara;奥乃 博;Hiroshi G.Okuno;清水 敬太;服部 佑哉;田口 明裕;Tetsuya Ogata;Yuya Hattori;人工知能学会(奥乃 博);小島摩里子
  • 通讯作者:
    小島摩里子
Study on non-audible murmur speaker verification using multiple session data
基于多会话数据的非可闻杂音说话人验证研究
  • DOI:
  • 发表时间:
    2006
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Sarker;B.K.;Yoshiyuki Nakatani;Yoshiaki Yasumura;Tetsuro Kitahara;奥乃 博;Hiroshi G.Okuno;清水 敬太;服部 佑哉;田口 明裕;Tetsuya Ogata;Yuya Hattori;人工知能学会(奥乃 博);小島摩里子;小島摩里子;Mariko Kojima;Mariko Kojima
  • 通讯作者:
    Mariko Kojima
実時間超解像ロボット聴覚システムとその複数同時音声認識への応用
实时超分辨率机器人听觉系统及其在多人同时语音识别中的应用
  • DOI:
  • 发表时间:
    2012
  • 期刊:
  • 影响因子:
    0
  • 作者:
    中村 圭佑;中臺 一博;奥乃 博
  • 通讯作者:
    奥乃 博
神経回路モデルを用いたロボットの描画運動における発達的模倣学習
使用神经回路模型进行机器人绘图动作的发育性模仿学习
  • DOI:
  • 发表时间:
    2013
  • 期刊:
  • 影响因子:
    0
  • 作者:
    望月 敬太;西出 俊;奥乃 博;尾形 哲也
  • 通讯作者:
    尾形 哲也

奥乃 博的其他文献

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

{{ truncateString('奥乃 博', 18)}}的其他基金

Issues raised by open source in the legalization of AI and Robots
开源在人工智能和机器人合法化中引发的问题
  • 批准号:
    22K12210
  • 财政年份:
    2022
  • 资助金额:
    $ 4.22万
  • 项目类别:
    Grant-in-Aid for Scientific Research (C)
ロボット聴覚の実環境理解に向けた多面的展開
机器人听觉的多方面发展以了解真实环境
  • 批准号:
    24240035
  • 财政年份:
    2012
  • 资助金额:
    $ 4.22万
  • 项目类别:
    Grant-in-Aid for Scientific Research (A)
音環境理解研究のフィールド情報学への展開
声环境理解领域信息学研究的进展
  • 批准号:
    21650043
  • 财政年份:
    2009
  • 资助金额:
    $ 4.22万
  • 项目类别:
    Grant-in-Aid for Challenging Exploratory Research
二分決定グラフによる全解表現に基づく数独問題の難易度の定義と問題自動生成法
基于使用二元决策图和自动问题生成方法的完整解表示的数独问题难度级别定义
  • 批准号:
    19650030
  • 财政年份:
    2007
  • 资助金额:
    $ 4.22万
  • 项目类别:
    Grant-in-Aid for Exploratory Research
音響信号記号変換に基づいたセマンティックインタラクション
基于声学信号符号变换的语义交互
  • 批准号:
    19024042
  • 财政年份:
    2007
  • 资助金额:
    $ 4.22万
  • 项目类别:
    Grant-in-Aid for Scientific Research on Priority Areas
音響信号記号変換に基づいたセマンティックインタラクション
基于声学信号符号变换的语义交互
  • 批准号:
    18049048
  • 财政年份:
    2006
  • 资助金额:
    $ 4.22万
  • 项目类别:
    Grant-in-Aid for Scientific Research on Priority Areas
音響的テクスチャに基づくロボット・インタラクションの研究
基于声纹理的机器人交互研究
  • 批准号:
    17650052
  • 财政年份:
    2005
  • 资助金额:
    $ 4.22万
  • 项目类别:
    Grant-in-Aid for Exploratory Research
実時間視聴覚情報統合による複数の人とのマルチモーダル・インタラクションの研究
实时视听信息集成的多人多模态交互研究
  • 批准号:
    16016251
  • 财政年份:
    2004
  • 资助金额:
    $ 4.22万
  • 项目类别:
    Grant-in-Aid for Scientific Research on Priority Areas
聴覚・視覚の複数レベル実時間情報統合の研究
听觉与视觉多级实时信息集成研究
  • 批准号:
    15017251
  • 财政年份:
    2003
  • 资助金额:
    $ 4.22万
  • 项目类别:
    Grant-in-Aid for Scientific Research on Priority Areas
脳のモデルを用いた自己生成音抑制機能を備えた聴覚機能の研究
利用脑模型研究具有自生声音抑制功能的听觉功能
  • 批准号:
    13878066
  • 财政年份:
    2001
  • 资助金额:
    $ 4.22万
  • 项目类别:
    Grant-in-Aid for Exploratory Research
{{ showInfoDetail.title }}

作者:{{ showInfoDetail.author }}

知道了