Structured Attention in Neural Networks for Natural Language Processing
自然语言处理神经网络中的结构化注意力
基本信息
- 批准号:RGPIN-2018-06437
- 负责人:
- 金额:$ 9.32万
- 依托单位:
- 依托单位国家:加拿大
- 项目类别:Discovery Grants Program - Individual
- 财政年份:2022
- 资助国家:加拿大
- 起止时间:2022-01-01 至 2023-12-31
- 项目状态:已结题
- 来源:
- 关键词:
项目摘要
Representation learning, enabled by the modeling and computational benefits of neural networks, has revolutionized the field of natural language processing (NLP). A general model that is applicable to many different sub-areas of NLP is the encoder-decoder neural network. An informal survey of all the papers published in the ACL 2017 conference (the most prestigious international conference in NLP) showed that one in four papers used encoder-decoder networks. This is an unprecedented amount of conformity for NLP researchers even though this model was used for many different NLP tasks. As a result, the focus of this proposal is likely to benefit a large number of NLP researchers and industry practitioners. Encoder-decoder networks with attention have been applied to several tasks: neural machine translation (NMT), language models, summarization, captioning of images, neural Turing machines (modeling the semantics of simple programming languages), visual and non-visual question answering systems, dialog systems, and many other applications. Further research into encoder-decoder networks is likely to have a significant impact broadly in NLP research. The addition of attention models to encoder-decoder networks has been an essential improvement, resulting in radically improved accuracies in many different tasks. Currently attention models use relatively simple weighted average models. There is considerable room for improvements to attention models in order to model various complex dependencies in natural language and in order to expand their utility to new NLP tasks and settings. In this proposal we explore various improvements to the encoder-decoder network models that have broad applicability to natural language processing and machine learning.
神经网络的建模和计算优势使表征学习成为可能,它彻底改变了自然语言处理(NLP)领域。适用于NLP的许多不同子领域的通用模型是编码器-解码器神经网络。对ACL 2017会议(NLP最负盛名的国际会议)发表的所有论文的非正式调查显示,四分之一的论文使用了编码器-解码器网络。对于NLP研究人员来说,这是一个前所未有的一致性,尽管这个模型被用于许多不同的NLP任务。因此,该提案的重点很可能会使大量NLP研究人员和行业从业者受益。具有注意力的编码器-解码器网络已被应用于几个任务:神经机器翻译(NMT),语言模型,摘要,图像字幕,神经图灵机(模拟简单编程语言的语义),视觉和非视觉问答系统,对话系统和许多其他应用。对编码器-解码器网络的进一步研究可能会对NLP研究产生广泛的重大影响。将注意力模型添加到编码器-解码器网络中是一项重要的改进,从而从根本上提高了许多不同任务的准确性。目前注意力模型使用相对简单的加权平均模型。注意力模型还有相当大的改进空间,以便用自然语言对各种复杂的依赖关系进行建模,并将其实用性扩展到新的NLP任务和设置。在本提案中,我们探索了对编码器-解码器网络模型的各种改进,这些模型对自然语言处理和机器学习具有广泛的适用性。
项目成果
期刊论文数量(0)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)
数据更新时间:{{ journalArticles.updateTime }}
{{
item.title }}
{{ item.translation_title }}
- DOI:
{{ item.doi }} - 发表时间:
{{ item.publish_year }} - 期刊:
- 影响因子:{{ item.factor }}
- 作者:
{{ item.authors }} - 通讯作者:
{{ item.author }}
数据更新时间:{{ journalArticles.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ monograph.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ sciAawards.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ conferencePapers.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ patent.updateTime }}
Sarkar, Anoop其他文献
Sarkar, Anoop的其他文献
{{
item.title }}
{{ item.translation_title }}
- DOI:
{{ item.doi }} - 发表时间:
{{ item.publish_year }} - 期刊:
- 影响因子:{{ item.factor }}
- 作者:
{{ item.authors }} - 通讯作者:
{{ item.author }}
{{ truncateString('Sarkar, Anoop', 18)}}的其他基金
Structured Attention in Neural Networks for Natural Language Processing
自然语言处理神经网络中的结构化注意力
- 批准号:
RGPIN-2018-06437 - 财政年份:2021
- 资助金额:
$ 9.32万 - 项目类别:
Discovery Grants Program - Individual
Structured Attention in Neural Networks for Natural Language Processing
自然语言处理神经网络中的结构化注意力
- 批准号:
DGDND-2018-00025 - 财政年份:2020
- 资助金额:
$ 9.32万 - 项目类别:
DND/NSERC Discovery Grant Supplement
Structured Attention in Neural Networks for Natural Language Processing
自然语言处理神经网络中的结构化注意力
- 批准号:
RGPIN-2018-06437 - 财政年份:2020
- 资助金额:
$ 9.32万 - 项目类别:
Discovery Grants Program - Individual
Structured Attention in Neural Networks for Natural Language Processing
自然语言处理神经网络中的结构化注意力
- 批准号:
RGPIN-2018-06437 - 财政年份:2019
- 资助金额:
$ 9.32万 - 项目类别:
Discovery Grants Program - Individual
Structured Attention in Neural Networks for Natural Language Processing
自然语言处理神经网络中的结构化注意力
- 批准号:
522574-2018 - 财政年份:2019
- 资助金额:
$ 9.32万 - 项目类别:
Discovery Grants Program - Accelerator Supplements
Structured Attention in Neural Networks for Natural Language Processing
自然语言处理神经网络中的结构化注意力
- 批准号:
DGDND-2018-00025 - 财政年份:2019
- 资助金额:
$ 9.32万 - 项目类别:
DND/NSERC Discovery Grant Supplement
Structured Attention in Neural Networks for Natural Language Processing
自然语言处理神经网络中的结构化注意力
- 批准号:
DGDND-2018-00025 - 财政年份:2018
- 资助金额:
$ 9.32万 - 项目类别:
DND/NSERC Discovery Grant Supplement
Structured Attention in Neural Networks for Natural Language Processing
自然语言处理神经网络中的结构化注意力
- 批准号:
RGPIN-2018-06437 - 财政年份:2018
- 资助金额:
$ 9.32万 - 项目类别:
Discovery Grants Program - Individual
Structured Attention in Neural Networks for Natural Language Processing
自然语言处理神经网络中的结构化注意力
- 批准号:
522574-2018 - 财政年份:2018
- 资助金额:
$ 9.32万 - 项目类别:
Discovery Grants Program - Accelerator Supplements
Multilingual Statistical Machine Translation
多语言统计机器翻译
- 批准号:
262313-2013 - 财政年份:2017
- 资助金额:
$ 9.32万 - 项目类别:
Discovery Grants Program - Individual
相似国自然基金
多模态超声VisTran-Attention网络评估早期子宫颈癌保留生育功能手术可行性
- 批准号:
- 批准年份:2022
- 资助金额:30 万元
- 项目类别:青年科学基金项目
Ultrasomics-Attention孪生网络早期精准评估肝内胆管癌免疫治疗的研究
- 批准号:
- 批准年份:2022
- 资助金额:52 万元
- 项目类别:面上项目
相似海外基金
Neural and Caregiver Contributions to the Development of Joint Attention
神经和护理人员对共同注意力发展的贡献
- 批准号:
10654153 - 财政年份:2023
- 资助金额:
$ 9.32万 - 项目类别:
Attention-Related Neural Circuitry in Pediatric Anxiety and ADHD
小儿焦虑症和多动症中的注意力相关神经回路
- 批准号:
10561956 - 财政年份:2023
- 资助金额:
$ 9.32万 - 项目类别:
Converging Behavioral and Neural Measures of Attention in Human Infants
人类婴儿注意力的行为和神经测量的融合
- 批准号:
10804947 - 财政年份:2023
- 资助金额:
$ 9.32万 - 项目类别:
Linking neural mechanisms of emotion and attention with naturalistic trauma symptom experience: An event-related potential and ecological momentary assessment study
将情绪和注意力的神经机制与自然创伤症状体验联系起来:事件相关电位和生态瞬时评估研究
- 批准号:
10679288 - 财政年份:2023
- 资助金额:
$ 9.32万 - 项目类别:
Uncovering cell type-specific prefrontal neural mechanisms of visuospatial selective attention in freely behaving mice using a high-throughput touchscreen-based training system
使用基于高通量触摸屏的训练系统揭示自由行为小鼠视觉空间选择性注意的细胞类型特异性前额神经机制
- 批准号:
10652656 - 财政年份:2022
- 资助金额:
$ 9.32万 - 项目类别:
Uncovering cell type-specific prefrontal neural mechanisms of visuospatial selective attention in freely behaving mice using a high-throughput touchscreen-based training system
使用基于高通量触摸屏的训练系统揭示自由行为小鼠视觉空间选择性注意的细胞类型特异性前额神经机制
- 批准号:
10527748 - 财政年份:2022
- 资助金额:
$ 9.32万 - 项目类别:
Integrating the neural and biochemical basis of attention in humans
整合人类注意力的神经和生化基础
- 批准号:
RGPIN-2019-05690 - 财政年份:2022
- 资助金额:
$ 9.32万 - 项目类别:
Discovery Grants Program - Individual
Investigating the neural mechanisms underlying attentional engagement during sustained attention tasks
研究持续注意力任务期间注意力参与的神经机制
- 批准号:
575752-2022 - 财政年份:2022
- 资助金额:
$ 9.32万 - 项目类别:
Alexander Graham Bell Canada Graduate Scholarships - Master's
Attention and Selection Mechanisms in Neural Networks and Computer Vision
神经网络和计算机视觉中的注意和选择机制
- 批准号:
RGPIN-2019-05777 - 财政年份:2022
- 资助金额:
$ 9.32万 - 项目类别:
Discovery Grants Program - Individual
Understanding how neural oscillatory phase affects perception and attention
了解神经振荡阶段如何影响感知和注意力
- 批准号:
DE220101019 - 财政年份:2022
- 资助金额:
$ 9.32万 - 项目类别:
Discovery Early Career Researcher Award