RI: Small: Taming Massive Pre-trained Models under Label Scarcity via an Optimization Lens

RI:小型:通过优化镜头在标签稀缺的情况下驯服大量预训练模型

基本信息

  • 批准号:
    2226152
  • 负责人:
  • 金额:
    $ 53.99万
  • 依托单位:
  • 依托单位国家:
    美国
  • 项目类别:
    Standard Grant
  • 财政年份:
    2022
  • 资助国家:
    美国
  • 起止时间:
    2022-09-01 至 2025-08-31
  • 项目状态:
    未结题

项目摘要

Deep transfer learning (DTL) has made significant progress in many real-world applications such as image and speech recognition. Training deep learning models in these applications often requires large amounts of labeled data, (e.g., images with annotated objects). Labelling these data by human labor, however, can be very expensive and time-consuming, which significantly limits the broader adoption of deep learning. Such an issue is more pronounced in certain domains (e.g. biomedical domain), where labeled data are scarce. To address the concern of label scarcity, researchers have resorted to deep transfer learning, where a massive deep learning model is first pre-trained only using unlabeled data and then adapted to the downstream task of our interests with only limited labelled data. Due to the gap between the enormous sizes of the pre-trained models and the limited labeled data, however, such a deep transfer learning approach is prone to overfitting and fail to generalize well on the unseen data, especially when there are noisy labels. Moreover, the enormous model sizes make practical deployment very difficult when there are constraints on storage/memory usage, inference latency and energy consumption, especially on edge devices. This project aims to develop an efficient computational framework to improve the generalization of deep transfer learning and reduce the model sizes by leveraging cutting-edge optimization and machine learning techniques.Specifically, this project aims to develop: (I) new adversarial regularization methods, which can regularize the complexity of deep learning models and prevent overfitting of the training data, (II) new self-training methods robust to noisy labels in the training data, and (III) new optimization methods, which can improve the training of compact deep learning models in deep transfer learning. Moreover, we will develop new generalization and approximation theories for understanding the benefits of our proposed methods in transfer learning. The proposed research will also deliver open-source software in the form of easy-to-use libraries, which facilitate researchers and practitioners to apply DTL in related fields.This award reflects NSF's statutory mission and has been deemed worthy of support through evaluation using the Foundation's intellectual merit and broader impacts review criteria.
深度迁移学习(DTL)在图像和语音识别等实际应用中取得了显著的进展。在这些应用中训练深度学习模型通常需要大量的标记数据(例如,带有注释对象的图像)。然而,人工为这些数据贴上标签可能非常昂贵和耗时,这大大限制了深度学习的更广泛采用。这一问题在某些领域(例如生物医学领域)更为明显,因为这些领域的标签数据非常稀缺。为了解决标签稀缺的问题,研究人员求助于深度迁移学习,即大规模的深度学习模型首先只使用未标记的数据进行预训练,然后在只有有限的标记数据的情况下适应我们感兴趣的下游任务。然而,由于庞大的预训练模型和有限的标签数据之间的差距,这种深度迁移学习方法容易过度拟合,并且不能很好地对未知数据进行泛化,特别是在存在噪声标签的情况下。此外,当存储/内存使用、推理延迟和能耗受到限制时,巨大的模型大小使实际部署变得非常困难,尤其是在边缘设备上。该项目旨在开发一种高效的计算框架,以提高深度迁移学习的泛化能力,并利用前沿优化和机器学习技术来减少模型规模。具体而言,本项目旨在开发:(I)新的对抗性正则化方法,它可以使深度学习模型的复杂性正则化,并防止训练数据过拟合;(Ii)新的自我训练方法,它对训练数据中的噪声标签具有鲁棒性;(Iii)新的优化方法,它可以改进深度迁移学习中紧凑深度学习模型的训练。此外,我们将发展新的推广和逼近理论,以了解我们提出的方法在迁移学习中的好处。这项拟议的研究还将以易于使用的库的形式提供开源软件,这有助于研究人员和从业者在相关领域应用DTL。这一奖项反映了NSF的法定使命,并通过使用基金会的智力优势和更广泛的影响审查标准进行评估,被认为值得支持。

项目成果

期刊论文数量(4)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)
LoSparse: Structured Compression of Large Language Models based on Low-Rank and Sparse Approximation
  • DOI:
    10.48550/arxiv.2306.11222
  • 发表时间:
    2023-06
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Yixiao Li;Yifan Yu;Qingru Zhang;Chen Liang;Pengcheng He;Weizhu Chen;Tuo Zhao
  • 通讯作者:
    Yixiao Li;Yifan Yu;Qingru Zhang;Chen Liang;Pengcheng He;Weizhu Chen;Tuo Zhao
Robust Multi-Agent Reinforcement Learning via Adversarial Regularization: Theoretical Foundation and Stable Algorithms
  • DOI:
    10.48550/arxiv.2310.10810
  • 发表时间:
    2023-10
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Alexander W. Bukharin;Yan Li;Yue Yu;Qingru Zhang;Zhehui Chen;Simiao Zuo;Chao Zhang;Songan Zhang;Tuo Zhao
  • 通讯作者:
    Alexander W. Bukharin;Yan Li;Yue Yu;Qingru Zhang;Zhehui Chen;Simiao Zuo;Chao Zhang;Songan Zhang;Tuo Zhao
Adaptive Budget Allocation for Parameter-Efficient Fine-Tuning
  • DOI:
    10.48550/arxiv.2303.10512
  • 发表时间:
    2023
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Qingru Zhang;Minshuo Chen;Alexander Bukharin;Pengcheng He;Yu Cheng;Weizhu Chen;Tuo Zhao
  • 通讯作者:
    Qingru Zhang;Minshuo Chen;Alexander Bukharin;Pengcheng He;Yu Cheng;Weizhu Chen;Tuo Zhao
Machine Learning Force Fields with Data Cost Aware Training
  • DOI:
    10.48550/arxiv.2306.03109
  • 发表时间:
    2023-06
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Alexander W. Bukharin;Tianyi Liu;Sheng Wang;Simiao Zuo;Weihao Gao;Wen Yan;Tuo Zhao
  • 通讯作者:
    Alexander W. Bukharin;Tianyi Liu;Sheng Wang;Simiao Zuo;Weihao Gao;Wen Yan;Tuo Zhao
{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ monograph.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ sciAawards.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ conferencePapers.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ patent.updateTime }}

Tuo Zhao其他文献

Learning explainable task-relevant state representation for model-free deep reinforcement learning
  • DOI:
    10.1016/j.neunet.2024.106741
  • 发表时间:
    2024-12-01
  • 期刊:
  • 影响因子:
  • 作者:
    Tingting Zhao;Guixi Li;Tuo Zhao;Yarui Chen;Ning Xie;Gang Niu;Masashi Sugiyama
  • 通讯作者:
    Masashi Sugiyama
Effects of different mixed ratio of maize straw and cabbage wastes on silage quality
Ensemble Acoustic Modeling for CD-DNN-HMM Using Random Forests of Phonetic Decision Trees
使用语音决策树随机森林的 CD-DNN-HMM 集成声学建模
TDOA Estimation of Speech Source in Noisy Reverberant Environments
噪声混响环境中语音源的 TDOA 估计
Methodology for optimal parametrization of the Polymer Membrane Fuel Cell based on Elman Neural Network method and Quantum Water Strider Algorithm
  • DOI:
    10.1016/j.egyr.2021.04.058
  • 发表时间:
    2021-11-01
  • 期刊:
  • 影响因子:
  • 作者:
    Kai Sun;Tuo Zhao;Zhaolin Li;Lu Wang;Ruichen Wang;Xijie Chen;Qing Yang;Ehsan Ramezani
  • 通讯作者:
    Ehsan Ramezani

Tuo Zhao的其他文献

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

{{ truncateString('Tuo Zhao', 18)}}的其他基金

III: Small: Go Beyond Short-term Dependency and Homogeneity: A General-Purpose Transformer Recipe for Multi-Domain Heterogeneous Sequential Data Analysis
III:小:超越短期依赖性和同质性:用于多域异构顺序数据分析的通用 Transformer 配方
  • 批准号:
    2008334
  • 财政年份:
    2020
  • 资助金额:
    $ 53.99万
  • 项目类别:
    Continuing Grant
III: Small: Topics in Temporal Marked Point Processes: Granger Causality, Imperfect Observations and Intervention
III:小:时间标记点过程的主题:格兰杰因果关系、不完美观察和干预
  • 批准号:
    1717916
  • 财政年份:
    2017
  • 资助金额:
    $ 53.99万
  • 项目类别:
    Standard Grant

相似国自然基金

昼夜节律性small RNA在血斑形成时间推断中的法医学应用研究
  • 批准号:
  • 批准年份:
    2024
  • 资助金额:
    0.0 万元
  • 项目类别:
    省市级项目
tRNA-derived small RNA上调YBX1/CCL5通路参与硼替佐米诱导慢性疼痛的机制研究
  • 批准号:
  • 批准年份:
    2022
  • 资助金额:
    10.0 万元
  • 项目类别:
    省市级项目
Small RNA调控I-F型CRISPR-Cas适应性免疫性的应答及分子机制
  • 批准号:
    32000033
  • 批准年份:
    2020
  • 资助金额:
    24.0 万元
  • 项目类别:
    青年科学基金项目
Small RNAs调控解淀粉芽胞杆菌FZB42生防功能的机制研究
  • 批准号:
    31972324
  • 批准年份:
    2019
  • 资助金额:
    58.0 万元
  • 项目类别:
    面上项目
变异链球菌small RNAs连接LuxS密度感应与生物膜形成的机制研究
  • 批准号:
    81900988
  • 批准年份:
    2019
  • 资助金额:
    21.0 万元
  • 项目类别:
    青年科学基金项目
肠道细菌关键small RNAs在克罗恩病发生发展中的功能和作用机制
  • 批准号:
    31870821
  • 批准年份:
    2018
  • 资助金额:
    56.0 万元
  • 项目类别:
    面上项目
基于small RNA 测序技术解析鸽分泌鸽乳的分子机制
  • 批准号:
    31802058
  • 批准年份:
    2018
  • 资助金额:
    26.0 万元
  • 项目类别:
    青年科学基金项目
Small RNA介导的DNA甲基化调控的水稻草矮病毒致病机制
  • 批准号:
    31772128
  • 批准年份:
    2017
  • 资助金额:
    60.0 万元
  • 项目类别:
    面上项目
基于small RNA-seq的针灸治疗桥本甲状腺炎的免疫调控机制研究
  • 批准号:
    81704176
  • 批准年份:
    2017
  • 资助金额:
    20.0 万元
  • 项目类别:
    青年科学基金项目
水稻OsSGS3与OsHEN1调控small RNAs合成及其对抗病性的调节
  • 批准号:
    91640114
  • 批准年份:
    2016
  • 资助金额:
    85.0 万元
  • 项目类别:
    重大研究计划

相似海外基金

SHF: Small: Taming Huge Page Problems for Memory Bulk Operations Using a Hardware/Software Co-Design Approach
SHF:小:使用硬件/软件协同设计方法解决内存批量操作的大页面问题
  • 批准号:
    2400014
  • 财政年份:
    2024
  • 资助金额:
    $ 53.99万
  • 项目类别:
    Standard Grant
Collaborative Research: SaTC: CORE: Small: Understanding and Taming Deterministic Model Bit Flip attacks in Deep Neural Networks
协作研究:SaTC:核心:小型:理解和驯服深度神经网络中的确定性模型位翻转攻击
  • 批准号:
    2342618
  • 财政年份:
    2023
  • 资助金额:
    $ 53.99万
  • 项目类别:
    Standard Grant
Collaborative Research: III: Small: Taming Large-Scale Streaming Graphs in an Open World
协作研究:III:小型:在开放世界中驯服大规模流图
  • 批准号:
    2236578
  • 财政年份:
    2023
  • 资助金额:
    $ 53.99万
  • 项目类别:
    Standard Grant
Collaborative Research: III: Small: Taming Large-Scale Streaming Graphs in an Open World
协作研究:III:小型:在开放世界中驯服大规模流图
  • 批准号:
    2236579
  • 财政年份:
    2023
  • 资助金额:
    $ 53.99万
  • 项目类别:
    Standard Grant
Collaborative Research: SaTC: CORE: Small: Understanding and Taming Deterministic Model Bit Flip attacks in Deep Neural Networks
协作研究:SaTC:核心:小型:理解和驯服深度神经网络中的确定性模型位翻转攻击
  • 批准号:
    2019548
  • 财政年份:
    2020
  • 资助金额:
    $ 53.99万
  • 项目类别:
    Standard Grant
Collaborative Research: SaTC: CORE: Small: Understanding and Taming Deterministic Model Bit Flip attacks in Deep Neural Networks
协作研究:SaTC:核心:小型:理解和驯服深度神经网络中的确定性模型位翻转攻击
  • 批准号:
    2019536
  • 财政年份:
    2020
  • 资助金额:
    $ 53.99万
  • 项目类别:
    Standard Grant
CIF: Small: Taming Convergence and Delay in Stochastic Network Optimization with Hessian Information
CIF:小:利用 Hessian 信息驯服随机网络优化中的收敛和延迟
  • 批准号:
    2110252
  • 财政年份:
    2020
  • 资助金额:
    $ 53.99万
  • 项目类别:
    Standard Grant
CIF: Small: Taming Nonconvexity in High-Dimensional Statistical Estimation
CIF:小:驯服高维统计估计中的非凸性
  • 批准号:
    1907661
  • 财政年份:
    2019
  • 资助金额:
    $ 53.99万
  • 项目类别:
    Standard Grant
CNS Core: Small: RUI: A Holistic Approach to Taming Unaligned Writes in Flash Drives
CNS 核心:小型:RUI:驯服闪存驱动器中未对齐写入的整体方法
  • 批准号:
    1906541
  • 财政年份:
    2019
  • 资助金额:
    $ 53.99万
  • 项目类别:
    Standard Grant
CIF: Small: Taming Convergence and Delay in Stochastic Network Optimization with Hessian Information
CIF:小:利用 Hessian 信息驯服随机网络优化中的收敛和延迟
  • 批准号:
    1758736
  • 财政年份:
    2017
  • 资助金额:
    $ 53.99万
  • 项目类别:
    Standard Grant
{{ showInfoDetail.title }}

作者:{{ showInfoDetail.author }}

知道了