話者と発話の選択的視聴覚認知に関する基礎的研究

说话者和话语选择性视听感知的基础研究

基本信息

  • 批准号:
    11J08278
  • 负责人:
  • 金额:
    $ 1.22万
  • 依托单位:
  • 依托单位国家:
    日本
  • 项目类别:
    Grant-in-Aid for JSPS Fellows
  • 财政年份:
    2011
  • 资助国家:
    日本
  • 起止时间:
    2011 至 2013
  • 项目状态:
    已结题

项目摘要

本研究課題のテーマは, 一対の視聴覚情報の発生源としての話者を, 効率的に定位, 認識できるメカニズムについて, 人間の感覚情報処理に関する基礎的知見から説明することである。話者の特定には, 発話内容の知覚, 構音動作の知覚, および, これらの視聴覚情報の統合という段階的な処理過程が関与しているが, これら全ての過程では, 共通して, 何らかの感覚情報間の対応付けが行われている。そこで, 私は, 感覚モダリティ内, および感覚モダリティ間の対応付けに用いられるメカニズムの性質を明らかにすることを目的としている。先行研究では, バインディング(対応付け)課題を用いた実験によって, 視覚の異属性(e.g. 色と運動)間, および異種感覚モダリティ(e.g. 視覚と聴覚)間の対応付けが, 約2.5Hzという共通の時間限界を示し, ゆえにこれらの対応付けが, 高次の共通のメカニズムで行われている可能性が示唆されている。よって, 視覚以外の感覚モダリティ(e.g. 聴覚)においても, 異属性(e.g. 振幅と音高)間の対応付けの時間限界が上記と共通の値になるのであれば, 感覚モダリティを問わず, 独立のモジュールで処理された感覚情報の対応付けは, 共通のメカニズムで行われると推察することができる。前年度までの研究においては, 三種類の聴覚属性を用いて, 属性間の対応付けの時間限界を測定した。その結果, 属性間の対応付けの時間限界は約2.5~4Hzであり, 条件によっては, 2.5Hzよりも有意に高い値となった。しかし, この実験においては, 聴覚末梢系で生じる何らかの手掛かりによって, 対応付けの可否によらず課題が遂行できていた可能性があった。そこで, 聴覚末梢系で生じる手掛かりを可能な限り統制できる刺激を用い, さらに刺激の顕著性を操作して, 聴覚属性間の対応付けの時間限界について, 再検討を行った。その結果, 聴覚属性間の対応付けの時間限界は約3~4Hzであり, この若干高い時間限界は末梢の手掛かりや刺激の顕著性によらず安定していることが分かった。このことから, 聴覚においては, 異なる属性間の対応付けであっても, 視覚属性間および異種感覚モダリティ間の対応付けに用いられる共通のメカニズムよりも低次の, 聴覚系内部のメカニズムで行われるものと考えられる。
This research topic の テ ー マ は, a moral の depending on hearing intelligence の 発 students と し て を の words, sharper rate に positioning, meet で き る メ カ ニ ズ ム に つ い て, human sense の 覚 intelligence 処 Richard に masato す る basic knowledge か ら illustrate す る こ と で あ る. Words の specific に は, 発 tell content の 覚, compose sound action の 覚, お よ び, こ れ ら の depending on hearing intelligence の integration と い う Duan Jie of な 処 が during processing and masato し て い る が, こ れ ら full て の process で は, common し て, what ら か の feeling between 覚 intelligence の 応 seaborne pay け が line わ れ て い る. は そ こ で, private, feeling 覚 モ ダ リ テ ィ, お よ び feeling 覚 モ ダ リ テ ィ between の 応 seaborne pay け に with い ら れ る メ カ ニ ズ ム の nature を Ming ら か に す る こ と を purpose と し て い る. Leading research で は, バ イ ン デ ィ ン グ (応 pay け seaborne) subject を い た be 験 に よ っ て, regard 覚 の different attributes (um participant. Color と movement), お よ び dissimilar feeling 覚 モ ダ リ テ ィ (e.g. 覚 と hearing) between の 応 seaborne pay け が, about 2.5 Hz と い う common の time limit を し, ゆ え に こ れ ら の 応 seaborne pay け が, high order の common の メ カ ニ ズ ム で line わ れ て い が る possibility in stopping さ れ て い る. Youdaoplaceholder0, vision other than 覚, sensation 覚モダリティ(e.g. Youdaoplaceholder3)にお て て て, different attributes (e.g.) Amplitude と pitch) between の 応 seaborne pay け の time limit が written と の common numerical に な る の で あ れ ば, feeling 覚 モ ダ リ テ ィ を asked わ ず, independent の モ ジ ュ ー ル で 処 Richard さ れ た feeling 覚 intelligence の 応 seaborne pay け は, common の メ カ ニ ズ ム で line わ れ る と push examine す る こ と が で き る. Before the annual ま で の research に お い て は, three kinds の hearing attribute を with い て, properties between の 応 seaborne pay け の time limit を determination し た. そ の as a result, the properties between の 応 seaborne pay け の time limit は is about 2.5 ~ 4 Hz で あ り, conditions に よ っ て は, 2.5 Hz よ り も intentionally に high い numerical と な っ た. し か し, こ の be 験 に お い て は, hearing endings is born で じ る what ら か の hands hang か り に よ っ て, 応 seaborne pay け can の に よ ら が ず subject carries out で き て い た possibility が あ っ た. そ こ で, hearing endings で raw じ る hands hang か り を may な limits り control で き る stimulus を い, さ ら に stimulus の 顕 the sexual を operation し て, hearing properties between の 応 seaborne pay け の time limit に つ い て, line again beg を 検 っ た. そ の results, hearing properties between の 応 pay seaborne け の time limit は about 3 ~ 4 hz で あ り, こ の several high い time limit は endings の hands hang か り や stimulus の 顕 the sexual に よ ら ず settle し て い る こ と が points か っ た. こ の こ と か ら, hearing に お い て は, different な る properties between の 応 seaborne pay け で あ っ て も, apparent 覚 properties between お よ び dissimilar feeling 覚 モ ダ リ テ ィ between の 応 seaborne pay け に with い ら れ る common の メ カ ニ ズ ム よ り も の low time, hearing system internal の メ カ ニ ズ ム で line わ れ る も の と exam え ら れ る.

项目成果

期刊论文数量(0)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)
Temoral frequency limits for within- and cross-attribute binding in vision and audition.
视觉和听觉中属性内和跨属性绑定的时间频率限制。
  • DOI:
  • 发表时间:
    2012
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Kanaya;Fujisaki;Nishida. Yokosawa
  • 通讯作者:
    Nishida. Yokosawa
The way of spatial processing with audio-visual speech stimuli differs in single and bilateral visual presentations
视听语音刺激的空间处理方式在单侧和双边视觉呈现中有所不同
  • DOI:
  • 发表时间:
    2011
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Kanaya;S.;Yokosawa;K.
  • 通讯作者:
    K.
視覚と聴覚のバインディング課題における時間限界の比較
视觉和听觉绑定任务的时间限制比较
  • DOI:
  • 发表时间:
    2012
  • 期刊:
  • 影响因子:
    0
  • 作者:
    金谷翔子;藤崎和香;西田眞也;横澤一彦
  • 通讯作者:
    横澤一彦
聴覚モジュール内、モジュール間の対応付けの時間限界の比較
听觉模块内部和之间的通信时间限制的比较
  • DOI:
  • 发表时间:
    2013
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Kanaya;S.;Fujisaki;W.;Nishida;S. Furukawa;S. & Yokosawa;K.;田中マリア;田中マリア;藤崎和香;金谷翔子,藤崎和香,西田眞也,古川茂人,横澤一彦
  • 通讯作者:
    金谷翔子,藤崎和香,西田眞也,古川茂人,横澤一彦
視覚と聴覚の属性内および属性間の対応付けにおける時間周波数限界の比較
视觉和听觉属性内和属性间对应的时频限制比较
  • DOI:
  • 发表时间:
    2012
  • 期刊:
  • 影响因子:
    0
  • 作者:
    金谷翔子;藤崎和香;西田眞也;横澤一彦
  • 通讯作者:
    横澤一彦
{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ monograph.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ sciAawards.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ conferencePapers.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ patent.updateTime }}

金谷 翔子其他文献

金谷 翔子的其他文献

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

{{ truncateString('金谷 翔子', 18)}}的其他基金

アンサンブル知覚を支える脳内メカニズムの解明
阐明支持整体感知的大脑机制
  • 批准号:
    20J40099
  • 财政年份:
    2020
  • 资助金额:
    $ 1.22万
  • 项目类别:
    Grant-in-Aid for JSPS Fellows
感覚間協応を利用した感覚情報統合メカニズムの解明
利用感觉间协调阐明感觉信息整合机制
  • 批准号:
    15J01103
  • 财政年份:
    2015
  • 资助金额:
    $ 1.22万
  • 项目类别:
    Grant-in-Aid for JSPS Fellows

相似海外基金

視覚・聴覚等に障害をもつ人の英語能力の測定法の開発
开发一种测量视力和听力障碍人士英语水平的方法
  • 批准号:
    23K20099
  • 财政年份:
    2024
  • 资助金额:
    $ 1.22万
  • 项目类别:
    Grant-in-Aid for Scientific Research (B)
聴覚障害児の読解に視覚的情報はどれだけ有効か:図が文章理解に与える効果の検討
视觉信息对听障儿童的阅读理解有多有效:检查图片对文本理解的影响
  • 批准号:
    24K06190
  • 财政年份:
    2024
  • 资助金额:
    $ 1.22万
  • 项目类别:
    Grant-in-Aid for Scientific Research (C)
聴覚・視覚障害者の健康とソーシャルキャピタルとの関連における研究
听力和视力障碍人群健康与社会资本关系研究
  • 批准号:
    24K05412
  • 财政年份:
    2024
  • 资助金额:
    $ 1.22万
  • 项目类别:
    Grant-in-Aid for Scientific Research (C)
被爆地における「継承」と「包摂」の社会史的検討:視覚・聴覚障害の被爆者に着目して
原爆地区“传承”与“包容”的社会历史审视:关注视听障碍的原子弹幸存者
  • 批准号:
    24K05324
  • 财政年份:
    2024
  • 资助金额:
    $ 1.22万
  • 项目类别:
    Grant-in-Aid for Scientific Research (C)
視覚と聴覚による新しい点滴流量調整方法の検証と開発
验证和开发一种新的视觉和听觉调节滴水流量方法
  • 批准号:
    23K16390
  • 财政年份:
    2023
  • 资助金额:
    $ 1.22万
  • 项目类别:
    Grant-in-Aid for Early-Career Scientists
振動現象をより視覚的・聴覚的に理解するための実験教材の開発
开发实验教材,以更好地从视觉和听觉上理解振动现象
  • 批准号:
    22H04181
  • 财政年份:
    2022
  • 资助金额:
    $ 1.22万
  • 项目类别:
    Grant-in-Aid for Encouragement of Scientists
視覚・聴覚・触覚から確認できる穴あけサポートシステムの開発
开发可通过视觉、听觉、触觉确认的钻井支持系统
  • 批准号:
    21H04009
  • 财政年份:
    2021
  • 资助金额:
    $ 1.22万
  • 项目类别:
    Grant-in-Aid for Encouragement of Scientists
質感形成における視覚・聴覚・触覚の多感覚統合処理の解明
阐明纹理形成中视觉、听觉和触觉的多感官综合处理
  • 批准号:
    21J12549
  • 财政年份:
    2021
  • 资助金额:
    $ 1.22万
  • 项目类别:
    Grant-in-Aid for JSPS Fellows
知的生産作業の支援を促す動的壁面型デバイスによる視覚・聴覚情報伝達制御手法の探索
利用动态壁挂设备支持智力生产任务的视觉和听觉信息传输控制方法探索
  • 批准号:
    20J21237
  • 财政年份:
    2020
  • 资助金额:
    $ 1.22万
  • 项目类别:
    Grant-in-Aid for JSPS Fellows
聴覚・視覚等障がい者と共に楽しむユニバーサルな音楽・美術鑑賞プログラムの開発
制定可供听力和视力障碍人士欣赏的通用音乐和艺术欣赏计划。
  • 批准号:
    20K02862
  • 财政年份:
    2020
  • 资助金额:
    $ 1.22万
  • 项目类别:
    Grant-in-Aid for Scientific Research (C)
{{ showInfoDetail.title }}

作者:{{ showInfoDetail.author }}

知道了