Structured Attention in Neural Networks for Natural Language Processing

自然语言处理神经网络中的结构化注意力

基本信息

  • 批准号:
    RGPIN-2018-06437
  • 负责人:
  • 金额:
    $ 4.66万
  • 依托单位:
  • 依托单位国家:
    加拿大
  • 项目类别:
    Discovery Grants Program - Individual
  • 财政年份:
    2021
  • 资助国家:
    加拿大
  • 起止时间:
    2021-01-01 至 2022-12-31
  • 项目状态:
    已结题

项目摘要

Computational Linguistics; Machine learning; Machine translation; Natural Language Processing; Neural networks
计算语言学;机器学习;机器翻译;自然语言处理;神经网络

项目成果

期刊论文数量(0)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ monograph.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ sciAawards.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ conferencePapers.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ patent.updateTime }}

Sarkar, Anoop其他文献

Sarkar, Anoop的其他文献

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

{{ truncateString('Sarkar, Anoop', 18)}}的其他基金

Structured Attention in Neural Networks for Natural Language Processing
自然语言处理神经网络中的结构化注意力
  • 批准号:
    RGPIN-2018-06437
  • 财政年份:
    2022
  • 资助金额:
    $ 4.66万
  • 项目类别:
    Discovery Grants Program - Individual
Structured Attention in Neural Networks for Natural Language Processing
自然语言处理神经网络中的结构化注意力
  • 批准号:
    DGDND-2018-00025
  • 财政年份:
    2020
  • 资助金额:
    $ 4.66万
  • 项目类别:
    DND/NSERC Discovery Grant Supplement
Structured Attention in Neural Networks for Natural Language Processing
自然语言处理神经网络中的结构化注意力
  • 批准号:
    RGPIN-2018-06437
  • 财政年份:
    2020
  • 资助金额:
    $ 4.66万
  • 项目类别:
    Discovery Grants Program - Individual
Structured Attention in Neural Networks for Natural Language Processing
自然语言处理神经网络中的结构化注意力
  • 批准号:
    RGPIN-2018-06437
  • 财政年份:
    2019
  • 资助金额:
    $ 4.66万
  • 项目类别:
    Discovery Grants Program - Individual
Structured Attention in Neural Networks for Natural Language Processing
自然语言处理神经网络中的结构化注意力
  • 批准号:
    522574-2018
  • 财政年份:
    2019
  • 资助金额:
    $ 4.66万
  • 项目类别:
    Discovery Grants Program - Accelerator Supplements
Structured Attention in Neural Networks for Natural Language Processing
自然语言处理神经网络中的结构化注意力
  • 批准号:
    DGDND-2018-00025
  • 财政年份:
    2019
  • 资助金额:
    $ 4.66万
  • 项目类别:
    DND/NSERC Discovery Grant Supplement
Structured Attention in Neural Networks for Natural Language Processing
自然语言处理神经网络中的结构化注意力
  • 批准号:
    DGDND-2018-00025
  • 财政年份:
    2018
  • 资助金额:
    $ 4.66万
  • 项目类别:
    DND/NSERC Discovery Grant Supplement
Structured Attention in Neural Networks for Natural Language Processing
自然语言处理神经网络中的结构化注意力
  • 批准号:
    RGPIN-2018-06437
  • 财政年份:
    2018
  • 资助金额:
    $ 4.66万
  • 项目类别:
    Discovery Grants Program - Individual
Structured Attention in Neural Networks for Natural Language Processing
自然语言处理神经网络中的结构化注意力
  • 批准号:
    522574-2018
  • 财政年份:
    2018
  • 资助金额:
    $ 4.66万
  • 项目类别:
    Discovery Grants Program - Accelerator Supplements
Multilingual Statistical Machine Translation
多语言统计机器翻译
  • 批准号:
    262313-2013
  • 财政年份:
    2017
  • 资助金额:
    $ 4.66万
  • 项目类别:
    Discovery Grants Program - Individual

相似国自然基金

多模态超声VisTran-Attention网络评估早期子宫颈癌保留生育功能手术可行性
  • 批准号:
  • 批准年份:
    2022
  • 资助金额:
    30 万元
  • 项目类别:
    青年科学基金项目
Ultrasomics-Attention孪生网络早期精准评估肝内胆管癌免疫治疗的研究
  • 批准号:
  • 批准年份:
    2022
  • 资助金额:
    52 万元
  • 项目类别:
    面上项目

相似海外基金

Neural and Caregiver Contributions to the Development of Joint Attention
神经和护理人员对共同注意力发展的贡献
  • 批准号:
    10654153
  • 财政年份:
    2023
  • 资助金额:
    $ 4.66万
  • 项目类别:
Attention-Related Neural Circuitry in Pediatric Anxiety and ADHD
小儿焦虑症和多动症中的注意力相关神经回路
  • 批准号:
    10561956
  • 财政年份:
    2023
  • 资助金额:
    $ 4.66万
  • 项目类别:
Converging Behavioral and Neural Measures of Attention in Human Infants
人类婴儿注意力的行为和神经测量的融合
  • 批准号:
    10804947
  • 财政年份:
    2023
  • 资助金额:
    $ 4.66万
  • 项目类别:
Linking neural mechanisms of emotion and attention with naturalistic trauma symptom experience: An event-related potential and ecological momentary assessment study
将情绪和注意力的神经机制与自然创伤症状体验联系起来:事件相关电位和生态瞬时评估研究
  • 批准号:
    10679288
  • 财政年份:
    2023
  • 资助金额:
    $ 4.66万
  • 项目类别:
Uncovering cell type-specific prefrontal neural mechanisms of visuospatial selective attention in freely behaving mice using a high-throughput touchscreen-based training system
使用基于高通量触摸屏的训练系统揭示自由行为小鼠视觉空间选择性注意的细胞类型特异性前额神经机制
  • 批准号:
    10652656
  • 财政年份:
    2022
  • 资助金额:
    $ 4.66万
  • 项目类别:
Attention and Selection Mechanisms in Neural Networks and Computer Vision
神经网络和计算机视觉中的注意和选择机制
  • 批准号:
    RGPIN-2019-05777
  • 财政年份:
    2022
  • 资助金额:
    $ 4.66万
  • 项目类别:
    Discovery Grants Program - Individual
Integrating the neural and biochemical basis of attention in humans
整合人类注意力的神经和生化基础
  • 批准号:
    RGPIN-2019-05690
  • 财政年份:
    2022
  • 资助金额:
    $ 4.66万
  • 项目类别:
    Discovery Grants Program - Individual
Investigating the neural mechanisms underlying attentional engagement during sustained attention tasks
研究持续注意力任务期间注意力参与的神经机制
  • 批准号:
    575752-2022
  • 财政年份:
    2022
  • 资助金额:
    $ 4.66万
  • 项目类别:
    Alexander Graham Bell Canada Graduate Scholarships - Master's
Uncovering cell type-specific prefrontal neural mechanisms of visuospatial selective attention in freely behaving mice using a high-throughput touchscreen-based training system
使用基于高通量触摸屏的训练系统揭示自由行为小鼠视觉空间选择性注意的细胞类型特异性前额神经机制
  • 批准号:
    10527748
  • 财政年份:
    2022
  • 资助金额:
    $ 4.66万
  • 项目类别:
Understanding how neural oscillatory phase affects perception and attention
了解神经振荡阶段如何影响感知和注意力
  • 批准号:
    DE220101019
  • 财政年份:
    2022
  • 资助金额:
    $ 4.66万
  • 项目类别:
    Discovery Early Career Researcher Award
{{ showInfoDetail.title }}

作者:{{ showInfoDetail.author }}

知道了