Development of a virtual classmate for assistance of online course

开发虚拟同学以协助在线课程

基本信息

  • 批准号:
    21H00895
  • 负责人:
  • 金额:
    $ 8.9万
  • 依托单位:
  • 依托单位国家:
    日本
  • 项目类别:
    Grant-in-Aid for Scientific Research (B)
  • 财政年份:
    2021
  • 资助国家:
    日本
  • 起止时间:
    2021-04-01 至 2026-03-31
  • 项目状态:
    未结题

项目摘要

このプロジェクトでは、オンライン授業、特にオンデマンド型講義に関して、受講者と対話しながら講義への集中と内容の理解を促す音声対話エージェントを開発することが目標である。そのための課題のうち、仮想エージェントシステムの作成、講義の重要箇所の推定、学習者の注意状態の推定の3つの研究を推進した。それぞれの概要は以下の通りである。1.仮想エージェントは、Unity、UnrealEngine、Azure CognitiveServiceの3つを組み合わせて作成した。ユーザの表情から感情認識モデルによって感情を推定し、またユーザの音声入力の認識結果からデータベースを検索して回答文を選択する。その際に、ユーザの感情と回答文のセンチメント分析結果を組み合わせてエージェントの表情を推定し、これにあわせてエージェントに表情をつけることができた。2.講義の重要箇所の推定として、従来の文単位要約モデルを使って重要文の推定を行い、さらに音声特徴を組み合わせることの効果について検証した。いくつかのモデルを組み合わせて評価を行った結果、音声を組み合わせることの効果はそれほど高くなかった。また、講義を行う教員によって傾向が異なるので、最終的に一つのモデルで推定ができるのかどうかを含めて今後検討が必要である。3.集中度の推定にはOpenFaceを使い、視線方向とまばたきによる集中度の推定を行った。また、スマートウォッチを利用した心拍数などと集中度の関連を調べた。今回の実験では実験参加者が少なかったため、今後データを増やして実験を続ける必要がある。
こ の プ ロ ジ ェ ク ト で は, オ ン ラ イ ン knowledge, に オ ン デ マ ン ド type notes に masato し て, speakers と words し seaborne な が ら notes へ の concentrated と content の understand を promote す sounds of words エ seaborne ー ジ ェ ン ト を open 発 す る こ と が target で あ る. そ の た め の subject の う ち, 仮 think エ ー ジ ェ ン ト シ ス テ ム の is made, and important a handout の の presumption of presumption, learners の attention state の の 3 つ を の research advance し た. Youdaoplaceholder0 それぞれ summary the following である is the same as である である. 1. Youdaoplaceholder0 think of エ エ ジェ ジェ ト ト, Unity, UnrealEngine, and Azure CognitiveService, and combine three わせて を groups to make わせて た. ユ ー ザ の expression か ら feelings known モ デ ル に よ っ て feelings を presumption し, ま た ユ ー ザ の sounds の know results into force か ら デ ー タ ベ ー ス を 検 cable し て answer wen を sentaku す る. そ の interstate に, ユ ー ザ の feelings と answer wen の セ ン チ メ ン ト analysis results を group み close わ せ て エ ー ジ ェ ン ト の expression を presumption し, こ れ に あ わ せ て エ ー ジ ェ ン ト に expression を つ け る こ と が で き た. 2 Handout の important a presumption is の と し て, 従 to の 単 who offer モ デ ル を make っ て important article の presumption を い, さ ら に sounds, 徴 を group み close わ せ る こ と の unseen fruit に つ い て 検 card し た. い く つ か の モ デ ル を group み close わ せ て review 価 を line っ た results, voice を group み わ せ る こ と の unseen fruit は そ れ ほ ど high く な か っ た. ま た, notes を う faculty に よ っ て tendency が different な る の で, eventually に つ の モ デ ル で presumption が で き る の か ど う か を containing め て 検 for future が で necessary あ る. 3 The degree of concentration is based on the presumption of に に OpenFaceを so that the direction of the line of sight is とまばた による the degree of concentration is based on the presumption of を rows った. Youdaoplaceholder0, ス, ス, トウォッチを, トウォッチを, use the た number of beats of the heart, な, と, and the concentration <s:1> to correlate を and べた. Today back の be 験 で は be less 験 participants が な か っ た た め, future デ ー タ を raised や し て be 験 を 続 け る necessary が あ る.

项目成果

期刊论文数量(14)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)
オンライン講義における生体情報に基づく集中度推定に関する研究
基于生物信息的在线讲座浓度估算研究
  • DOI:
  • 发表时间:
    2023
  • 期刊:
  • 影响因子:
    0
  • 作者:
    遠藤雄飛;伊藤彰則;能勢隆
  • 通讯作者:
    能勢隆
モノローグ発話における音声のパワーと口形の関係の調査
独白语音中声功率与口型关系的研究
  • DOI:
  • 发表时间:
    2023
  • 期刊:
  • 影响因子:
    0
  • 作者:
    川西翔貴;伊藤彰則;千葉祐弥;能勢隆
  • 通讯作者:
    能勢隆
オンデマンド講義における重要箇所推定に関する研究
点播教学要点估算研究
  • DOI:
  • 发表时间:
    2022
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Uto Masaki;竹内美綺,伊藤彰則,能勢隆
  • 通讯作者:
    竹内美綺,伊藤彰則,能勢隆
Combination of deep-learning-based audio separation and speech enhance-ment for noise reduction of extracted signal from polyphonic music
基于深度学习的音频分离和语音增强相结合,用于从和弦音乐中提取信号的降噪
Quali-informatics in the society with yotta scale data
具有 yotta 规模数据的社会定性信息学
  • DOI:
  • 发表时间:
    2021
  • 期刊:
  • 影响因子:
    0
  • 作者:
    S Shioiri;Y Sato;Y Horaguchi;H Muraoka;M Nihei
  • 通讯作者:
    M Nihei
{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ monograph.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ sciAawards.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ conferencePapers.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ patent.updateTime }}

伊藤 彰則其他文献

DNN 音声合成における複数話者データを用いた学習手法の比較
DNN 语音合成中使用多说话人数据的学习方法比较
道案内ロボットのための距離誤差の少ない経路追従手法の開発―実機による検証―
路径引导机器人的低距离误差路径追踪方法的开发 - 实机验证 -
  • DOI:
  • 发表时间:
    2022
  • 期刊:
  • 影响因子:
    0
  • 作者:
    若林広悦;廣井富;宮脇健三郎;伊藤 彰則
  • 通讯作者:
    伊藤 彰則
距離誤差の少ない経路追従手法を実装した道案内ロボットの運用に向けた取り組み
操作实现距离误差较小的路径跟踪方法的路径引导机器人的努力
  • DOI:
  • 发表时间:
    2022
  • 期刊:
  • 影响因子:
    0
  • 作者:
    若林広悦;廣井富;宮脇健三郎;伊藤 彰則
  • 通讯作者:
    伊藤 彰則
手すりを移動するコミュニケーションロボット―全体コンセプト―
沿着扶手移动的通信机器人-总体概念-
  • DOI:
  • 发表时间:
    2012
  • 期刊:
  • 影响因子:
    0
  • 作者:
    廣井富;内田裕二;西村駿宏. 中山貴之;黒田尚孝;三宅真司;戸塚典子;伊藤 彰則
  • 通讯作者:
    伊藤 彰則
運動により知覚的奥行きが分離された刺激間の垂直視差統合処理特性
感知深度因运动而分离的刺激之间的垂直视差积分处理特性
  • DOI:
  • 发表时间:
    2016
  • 期刊:
  • 影响因子:
    0
  • 作者:
    武石笑歌;能勢 隆;加瀬嵩人;伊藤彰則;伊藤 彰則;Koichi Ito;宮西雄太,金子寛彦
  • 通讯作者:
    宮西雄太,金子寛彦

伊藤 彰則的其他文献

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

{{ truncateString('伊藤 彰則', 18)}}的其他基金

オンライン授業支援のためのバーチャル・クラスメートの開発
开发虚拟同学支持在线课程
  • 批准号:
    23K20725
  • 财政年份:
    2024
  • 资助金额:
    $ 8.9万
  • 项目类别:
    Grant-in-Aid for Scientific Research (B)
日本語音声認識のための統計的言語モデルとそのタスク適応に関する研究
日语语音识别统计语言模型及其任务适配研究
  • 批准号:
    09780307
  • 财政年份:
    1997
  • 资助金额:
    $ 8.9万
  • 项目类别:
    Grant-in-Aid for Encouragement of Young Scientists (A)
連想的手法を用いた自由発話文音声の認識
使用关联方法的自由语音识别
  • 批准号:
    06780297
  • 财政年份:
    1994
  • 资助金额:
    $ 8.9万
  • 项目类别:
    Grant-in-Aid for Encouragement of Young Scientists (A)
統計と連想に基づく連続音声認識に関する研究
基于统计和关联的连续语音识别研究
  • 批准号:
    05780277
  • 财政年份:
    1993
  • 资助金额:
    $ 8.9万
  • 项目类别:
    Grant-in-Aid for Encouragement of Young Scientists (A)
機能語予測CYK法を用いた連続音声認識システムに関する研究
采用功能词预测CYK方法的连续语音识别系统研究
  • 批准号:
    04750295
  • 财政年份:
    1992
  • 资助金额:
    $ 8.9万
  • 项目类别:
    Grant-in-Aid for Encouragement of Young Scientists (A)

相似海外基金

セキュアな音声対話のための実環境なりすまし音声コーパス構築
构建真实世界的欺骗语音语料库以实现安全语音对话
  • 批准号:
    24K14993
  • 财政年份:
    2024
  • 资助金额:
    $ 8.9万
  • 项目类别:
    Grant-in-Aid for Scientific Research (C)
意図を的確に伝える音声対話翻訳の基盤技術の創出
创造准确传达意图的语音对话翻译基础技术
  • 批准号:
    23K28144
  • 财政年份:
    2024
  • 资助金额:
    $ 8.9万
  • 项目类别:
    Grant-in-Aid for Scientific Research (B)
音声対話系の統一的モデリングに基づくユーザへのモデル自動適応
基于口语对话系统统一建模的自动模型适应用户
  • 批准号:
    23K28147
  • 财政年份:
    2024
  • 资助金额:
    $ 8.9万
  • 项目类别:
    Grant-in-Aid for Scientific Research (B)
九州・沖縄方言の継承支援に資する音声対話型生成系AIの開発
开发支持九州、冲绳方言传承的语音对话生成系统AI
  • 批准号:
    24K00074
  • 财政年份:
    2024
  • 资助金额:
    $ 8.9万
  • 项目类别:
    Grant-in-Aid for Scientific Research (B)
意図を的確に伝える音声対話翻訳の基盤技術の創出
创造准确传达意图的语音对话翻译基础技术
  • 批准号:
    23H03454
  • 财政年份:
    2023
  • 资助金额:
    $ 8.9万
  • 项目类别:
    Grant-in-Aid for Scientific Research (B)
音声対話系の統一的モデリングに基づくユーザへのモデル自動適応
基于口语对话系统统一建模的自动模型适应用户
  • 批准号:
    23H03457
  • 财政年份:
    2023
  • 资助金额:
    $ 8.9万
  • 项目类别:
    Grant-in-Aid for Scientific Research (B)
音声対話システムにおける複数のふるまいの同時制御に基づくキャラクタ表現
语音对话系统中基于多种行为同时控制的人物表达
  • 批准号:
    23K20005
  • 财政年份:
    2023
  • 资助金额:
    $ 8.9万
  • 项目类别:
    Grant-in-Aid for Research Activity Start-up
対話タスク・ユーザに適したキャラクタを表現する音声対話システム
表达适合对话任务和用户的字符的语音对话系统
  • 批准号:
    20J22284
  • 财政年份:
    2020
  • 资助金额:
    $ 8.9万
  • 项目类别:
    Grant-in-Aid for JSPS Fellows
階層的End-to-Endモデルに基づく音声対話における心的状態推定に関する研究
基于分层端到端模型的口语对话心理状态估计研究
  • 批准号:
    18J22864
  • 财政年份:
    2018
  • 资助金额:
    $ 8.9万
  • 项目类别:
    Grant-in-Aid for JSPS Fellows
社会的制約を考慮したロボット用音声対話システムの実現
考虑社会约束的机器人语音对话系统的实现
  • 批准号:
    14J02714
  • 财政年份:
    2014
  • 资助金额:
    $ 8.9万
  • 项目类别:
    Grant-in-Aid for JSPS Fellows
{{ showInfoDetail.title }}

作者:{{ showInfoDetail.author }}

知道了