EAGER: Attention-Aware Mixed Reality Interfaces

EAGER:注意力感知混合现实界面

基本信息

  • 批准号:
    1845587
  • 负责人:
  • 金额:
    $ 24.5万
  • 依托单位:
  • 依托单位国家:
    美国
  • 项目类别:
    Standard Grant
  • 财政年份:
    2018
  • 资助国家:
    美国
  • 起止时间:
    2018-09-01 至 2020-08-31
  • 项目状态:
    已结题

项目摘要

This project develops new technologies that measure and model people's state of attention and applies these methodologies to virtual reality (VR) and augmented reality (AR) language learning applications. For determining the degree of people's attention on central learning tasks presented in VR and AR, this project uses two sensor modalities that can index attention: electrical activity of the brain, as measured by electroencephalography (EEG) signals, and eye gaze behavior, as measured by eye trackers. Context recognition plays a key element in future VR and AR application scenarios, and users, as well as content providers, can benefit substantially from information about user attention states during information consumption. The project can inform the development of optimized VR and AR content, as well as individualized learning strategies. The project's motivating application is the optimization of language learning for users across the complete spectrum of ability. In the longer run, additional benefits include the creation of special tools for students with known attention deficits, as well as for increasing productivity and safety in various commercial and industrial applications. This research explores necessary novel technologies for attention-aware mixed reality (MR) interfaces. The project integrates signals from consumer-grade EEG and eye tracking devices, to determine if and how much the participant's attention is divided (i.e. distracted or multi-tasking) or focused, and to assist appropriately. In this attention-assisted paradigm, users are monitored by EEG and eye tracking devices while interacting with mixed reality user interfaces. Attention states are classified over time using both sensor modalities and can be spatially referenced in the user interface with eye tracking. Attention activity feedback can be reported in real time while the user is interacting with the interface or may be stored and later visualized for a more thorough analysis of attentional patterns. The project delivers technology demonstrations of attention-aware interfaces for foreign language vocabulary learning in VR (with a lookout on AR possibilities). Exploratory experiments will uncover the possibilities for characterizing human attention states through EEG and eye tracking data. The project opens new opportunities for advances in multi-modal interaction to contribute to MR interfaces and learning technologies.This award reflects NSF's statutory mission and has been deemed worthy of support through evaluation using the Foundation's intellectual merit and broader impacts review criteria.
该项目开发了测量和模拟人们注意力状态的新技术,并将这些方法应用于虚拟现实(VR)和增强现实(AR)语言学习应用。为了确定人们在VR和AR中呈现的中心学习任务上的注意力程度,该项目使用了两种可以索引注意力的传感器模式:通过脑电图(EEG)信号测量的大脑电活动,以及通过眼动仪测量的眼睛注视行为。上下文识别在未来的VR和AR应用场景中扮演着关键的角色,在信息消费过程中,用户以及内容提供商都可以从用户的注意力状态信息中获益。该项目可以为优化VR和AR内容的开发以及个性化学习策略提供信息。这个项目的激励应用是为各种能力的用户优化语言学习。从长远来看,其他好处包括为已知注意力缺陷的学生创造特殊工具,以及提高各种商业和工业应用的生产力和安全性。本研究探讨了注意感知混合现实(MR)接口所需的新技术。该项目集成了来自消费级脑电图和眼动追踪设备的信号,以确定参与者的注意力是否分散(即分心或多任务处理)或集中的程度,并提供适当的帮助。在这种注意力辅助范例中,用户在与混合现实用户界面交互时,通过脑电图和眼动追踪设备进行监测。注意状态随时间分类使用传感器模态,并可以在用户界面中通过眼动追踪进行空间引用。当用户与界面交互时,注意力活动反馈可以实时报告,或者可以存储并稍后可视化,以便对注意力模式进行更彻底的分析。该项目提供了在VR中用于外语词汇学习的注意力感知界面的技术演示(同时关注AR的可能性)。探索性实验将揭示通过脑电图和眼动追踪数据表征人类注意力状态的可能性。该项目为多模态交互的进步提供了新的机会,为MR接口和学习技术做出了贡献。该奖项反映了美国国家科学基金会的法定使命,并通过使用基金会的知识价值和更广泛的影响审查标准进行评估,被认为值得支持。

项目成果

期刊论文数量(10)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)
Designing a Multitasking Interface for Object-aware AR applications
为对象感知 AR 应用程序设计多任务界面
ARbis Pictus: A Study of Vocabulary Learning with Augmented Reality
  • DOI:
    10.1109/tvcg.2018.2868568
  • 发表时间:
    2017-11
  • 期刊:
  • 影响因子:
    5.2
  • 作者:
    Adam Ibrahim;Brandon Huynh;J. Downey;Tobias Höllerer;Dorothy M. Chun;J. O'Donovan
  • 通讯作者:
    Adam Ibrahim;Brandon Huynh;J. Downey;Tobias Höllerer;Dorothy M. Chun;J. O'Donovan
In-Situ Labeling for Augmented Reality Language Learning
Augmentation Strategies for Learning with Noisy Labels
Predicting Video Affect via Induced Affection in the Wild
{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ monograph.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ sciAawards.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ conferencePapers.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ patent.updateTime }}

Tobias Hollerer其他文献

Privately Evaluating Contingency Tables with Suppression
通过抑制私下评估列联表
高野山周辺の御田―真国を中心として
以新国为中心的高野山周围的大纳稻田
  • DOI:
  • 发表时间:
    2017
  • 期刊:
  • 影响因子:
    0
  • 作者:
    John O'Donovan;Shinsuke Nakajima;Tobias Hollerer;Mayumi Ueda;Yuuki Matsunami;Byungkyu Kang;森本一彦;武田昌一;森本一彦
  • 通讯作者:
    森本一彦
異なる光源環境における画像特徴の頑健性の調査
研究不同光源环境下图像特征的鲁棒性
  • DOI:
  • 发表时间:
    2015
  • 期刊:
  • 影响因子:
    0
  • 作者:
    工藤 彰;Alexander Plopski;Tobias Hollerer;間下以大;竹村 治雄;清川 清
  • 通讯作者:
    清川 清
モバイル端末のコントラスト比と水晶体白濁度による可読性への影響
移动设备对比度和镜头不透明度对可读性的影响
  • DOI:
  • 发表时间:
    2015
  • 期刊:
  • 影响因子:
    0
  • 作者:
    工藤 彰;Alexander Plopski;Tobias Hollerer;間下以大;竹村 治雄;清川 清;岩田光平,石井佑樹,小飯塚達也,松波紫草,石尾暢宏,R. Paul Lege,小嶌健仁,宮尾克
  • 通讯作者:
    岩田光平,石井佑樹,小飯塚達也,松波紫草,石尾暢宏,R. Paul Lege,小嶌健仁,宮尾克
A Cross-Cultural Analysis of Explanations for Product Reviews
产品评论解释的跨文化分析
  • DOI:
  • 发表时间:
    2016
  • 期刊:
  • 影响因子:
    0
  • 作者:
    John O'Donovan;Shinsuke Nakajima;Tobias Hollerer;Mayumi Ueda;Yuuki Matsunami;Byungkyu Kang
  • 通讯作者:
    Byungkyu Kang

Tobias Hollerer的其他文献

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

{{ truncateString('Tobias Hollerer', 18)}}的其他基金

Collaborative Research: HCC: Medium: HCI in Motion -- Using EEG, Eye Tracking, and Body Sensing for Attention-Aware Mobile Mixed Reality
合作研究:HCC:媒介:运动中的 HCI——使用 EEG、眼动追踪和身体感应实现注意力感知移动混合现实
  • 批准号:
    2211784
  • 财政年份:
    2022
  • 资助金额:
    $ 24.5万
  • 项目类别:
    Standard Grant
CHS: Small: Integrative Wide-Area Augmented Reality Scene Modeling
CHS:小型:集成广域增强现实场景建模
  • 批准号:
    1911230
  • 财政年份:
    2019
  • 资助金额:
    $ 24.5万
  • 项目类别:
    Continuing Grant
EAGER: Large-Scale Real-Time Information Visualization on Immersive Platforms
EAGER:沉浸式平台上的大规模实时信息可视化
  • 批准号:
    1748392
  • 财政年份:
    2017
  • 资助金额:
    $ 24.5万
  • 项目类别:
    Standard Grant
EAGER: Collaborative Visualization for Knowledge Computing
EAGER:知识计算的协作可视化
  • 批准号:
    1058132
  • 财政年份:
    2010
  • 资助金额:
    $ 24.5万
  • 项目类别:
    Standard Grant
CAREER: Anywhere Augmentation: Practical Mobile Augmented Reality in Unprepared Physical Environments
职业:随时随地增强:在未准备好的物理环境中实用的移动增强现实
  • 批准号:
    0747520
  • 财政年份:
    2008
  • 资助金额:
    $ 24.5万
  • 项目类别:
    Continuing Grant
Scalable Visualization and Constrained Interaction for Large Graphs -- Supporting the Collaborative Analysis of High-dimensional Data Sets
大图的可扩展可视化和约束交互——支持高维数据集的协同分析
  • 批准号:
    0635492
  • 财政年份:
    2006
  • 资助金额:
    $ 24.5万
  • 项目类别:
    Standard Grant

相似国自然基金

多模态超声VisTran-Attention网络评估早期子宫颈癌保留生育功能手术可行性
  • 批准号:
  • 批准年份:
    2022
  • 资助金额:
    30 万元
  • 项目类别:
    青年科学基金项目
Ultrasomics-Attention孪生网络早期精准评估肝内胆管癌免疫治疗的研究
  • 批准号:
  • 批准年份:
    2022
  • 资助金额:
    52 万元
  • 项目类别:
    面上项目

相似海外基金

Collaborative Research: HCC: Medium: HCI in Motion -- Using EEG, Eye Tracking, and Body Sensing for Attention-Aware Mobile Mixed Reality
合作研究:HCC:媒介:运动中的 HCI——使用 EEG、眼动追踪和身体感应实现注意力感知移动混合现实
  • 批准号:
    2211785
  • 财政年份:
    2022
  • 资助金额:
    $ 24.5万
  • 项目类别:
    Standard Grant
Collaborative Research: HCC: Medium: HCI in Motion -- Using EEG, Eye Tracking, and Body Sensing for Attention-Aware Mobile Mixed Reality
合作研究:HCC:媒介:运动中的 HCI——使用 EEG、眼动追踪和身体感应实现注意力感知移动混合现实
  • 批准号:
    2211784
  • 财政年份:
    2022
  • 资助金额:
    $ 24.5万
  • 项目类别:
    Standard Grant
Attention-Aware Deep Learning for Information Retrieval from Gigapixel Histopathology Scans
用于从十亿像素组织病理学扫描中检索信息的注意力感知深度学习
  • 批准号:
    518775-2018
  • 财政年份:
    2020
  • 资助金额:
    $ 24.5万
  • 项目类别:
    Postgraduate Scholarships - Doctoral
Attention-Aware Deep Learning for Information Retrieval from Gigapixel Histopathology Scans
用于从十亿像素组织病理学扫描中检索信息的注意力感知深度学习
  • 批准号:
    518775-2018
  • 财政年份:
    2019
  • 资助金额:
    $ 24.5万
  • 项目类别:
    Postgraduate Scholarships - Doctoral
Attention-Aware Deep Learning for Information Retrieval from Gigapixel Histopathology Scans
用于从十亿像素组织病理学扫描中检索信息的注意力感知深度学习
  • 批准号:
    518775-2018
  • 财政年份:
    2018
  • 资助金额:
    $ 24.5万
  • 项目类别:
    Postgraduate Scholarships - Doctoral
EXP: Attention-Aware Cyberlearning to Detect and Combat Inattentiveness During Learning
EXP:注意力感知网络学习,用于检测和克服学习过程中的注意力不集中
  • 批准号:
    1748739
  • 财政年份:
    2017
  • 资助金额:
    $ 24.5万
  • 项目类别:
    Standard Grant
EXP: Attention-Aware Cyberlearning to Detect and Combat Inattentiveness During Learning
EXP:注意力感知网络学习,用于检测和克服学习过程中的注意力不集中
  • 批准号:
    1523091
  • 财政年份:
    2015
  • 资助金额:
    $ 24.5万
  • 项目类别:
    Standard Grant
Design and psychology of user attention in context-aware computing
上下文感知计算中用户注意力的设计和心理
  • 批准号:
    228152-2004
  • 财政年份:
    2008
  • 资助金额:
    $ 24.5万
  • 项目类别:
    Discovery Grants Program - Individual
Design and psychology of user attention in context-aware computing
上下文感知计算中用户注意力的设计和心理
  • 批准号:
    228152-2004
  • 财政年份:
    2006
  • 资助金额:
    $ 24.5万
  • 项目类别:
    Discovery Grants Program - Individual
Design and psychology of user attention in context-aware computing
上下文感知计算中用户注意力的设计和心理
  • 批准号:
    228152-2004
  • 财政年份:
    2005
  • 资助金额:
    $ 24.5万
  • 项目类别:
    Discovery Grants Program - Individual
{{ showInfoDetail.title }}

作者:{{ showInfoDetail.author }}

知道了