CIF: Small: Computationally Efficient Second-Order Optimization Algorithms for Large-Scale Learning
CIF:小型:用于大规模学习的计算高效的二阶优化算法
基本信息
- 批准号:2007668
- 负责人:
- 金额:$ 50万
- 依托单位:
- 依托单位国家:美国
- 项目类别:Standard Grant
- 财政年份:2020
- 资助国家:美国
- 起止时间:2020-07-01 至 2025-06-30
- 项目状态:未结题
- 来源:
- 关键词:
项目摘要
The rapid success of machine learning and artificial intelligence has positively affected several domains such as robotics, wireless communications, and sensor networks, to name a few. This success is mostly due to advances in storage, computational power, data representation, and algorithms, which allows the power of increasingly rich datasets to be harnessed. In particular, advances in computationally efficient optimization algorithms have had a crucial role in this success, as most tasks in modern machine learning and artificial intelligence problems can be formulated as optimization programs. Despite significant progress, most existing optimization algorithms could be slow when applied to the ill-conditioned problems that often arise in large-scale machine learning. This project lays out an agenda to develop a class of memory efficient, computationally affordable, and distributed friendly second-order methods for solving modern machine learning problems. On the education front, this project will provide a stimulating and innovative research environment for both graduate and undergraduate students; it will also incorporate the development of curricular material for courses at the University of Texas at Austin. Current optimization algorithms for large-scale machine learning are inefficient at times since these methods operate using only first-order information (gradient) of the objective function. This project aims to develop a class of fast and efficient second-order methods that exploit the curvature information of the objective function to accelerate convergence in ill-conditioned settings. The research encompasses three different thrusts: (I) Developing memory efficient incremental quasi-Newton methods with provably fast convergence guarantees; (II) Improving the computational complexity of second-order adaptive sample size algorithms by leveraging quasi-Newton approximation techniques; and (III) Designing distributed second-order methods that outperform first-order algorithms both in terms of overall complexity (in convex settings) and in terms of quality of solution (in non-convex settings).This award reflects NSF's statutory mission and has been deemed worthy of support through evaluation using the Foundation's intellectual merit and broader impacts review criteria.
机器学习和人工智能的快速成功对几个领域(例如机器人技术,无线通信和传感器网络)等数字产生了积极影响。这一成功主要是由于存储,计算能力,数据表示和算法的进步,这使得可以利用日益丰富的数据集的功能。特别是,计算高效优化算法的进步在这一成功中起着至关重要的作用,因为现代机器学习和人工智能问题中的大多数任务都可以作为优化程序提出。尽管取得了重大进展,大多数现有的优化算法将应用于大规模机器学习中经常出现的条件不足的问题时可能会很慢。该项目提出了一个议程,以开发一类记忆效率,计算负担得起和分布式友好的二阶方法,以解决现代机器学习问题。在教育方面,该项目将为研究生和本科生提供刺激性和创新的研究环境。它还将在德克萨斯大学奥斯汀分校的课程中开发课程的课程材料。大规模机器学习的当前优化算法有时效率低下,因为这些方法仅使用目标函数的一阶信息(梯度)运行。该项目旨在开发一类快速有效的二阶方法,以利用目标函数的曲率信息,以在不良条件的设置中加速收敛。该研究包括三种不同的推力:(i)开发具有可证明快速收敛保证的记忆有效增量准牛顿方法; (ii)通过利用准Newton近似技术来改善二阶自适应样本量算法的计算复杂性; (iii)设计分布的二阶方法,在整体复杂性(在凸面设置中)和解决方案质量方面(在非convex设置中)都超过了一阶算法。这一奖项反映了NSF的法定任务,并且认为通过基金会的知识优点和广泛的crietia crietia crietia crietia criperia criperia criperia criperia criperia criperia cristeria均值得通过评估。
项目成果
期刊论文数量(7)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)
Sharpened Quasi-Newton Methods: Faster Superlinear Rate and Larger Local Convergence Neighborhood
- DOI:
- 发表时间:2022-02
- 期刊:
- 影响因子:0
- 作者:Qiujiang Jin;Alec Koppel;K. Rajawat;Aryan Mokhtari
- 通讯作者:Qiujiang Jin;Alec Koppel;K. Rajawat;Aryan Mokhtari
Stochastic Quasi-Newton Methods
- DOI:10.1109/jproc.2020.3023660
- 发表时间:2020-09
- 期刊:
- 影响因子:20.6
- 作者:Aryan Mokhtari;Alejandro Ribeiro
- 通讯作者:Aryan Mokhtari;Alejandro Ribeiro
High-Dimensional Nonconvex Stochastic Optimization by Doubly Stochastic Successive Convex Approximation
- DOI:10.1109/tsp.2020.3033354
- 发表时间:2020
- 期刊:
- 影响因子:5.4
- 作者:Aryan Mokhtari;Alec Koppel
- 通讯作者:Aryan Mokhtari;Alec Koppel
Second-Order Optimality in Non-Convex Decentralized Optimization via Perturbed Gradient Tracking
- DOI:
- 发表时间:2020
- 期刊:
- 影响因子:0
- 作者:Isidoros Tziotis;C. Caramanis;Aryan Mokhtari
- 通讯作者:Isidoros Tziotis;C. Caramanis;Aryan Mokhtari
Exploiting Local Convergence of Quasi-Newton Methods Globally: Adaptive Sample Size Approach
- DOI:
- 发表时间:2021-06
- 期刊:
- 影响因子:0
- 作者:Qiujiang Jin;Aryan Mokhtari
- 通讯作者:Qiujiang Jin;Aryan Mokhtari
{{
item.title }}
{{ item.translation_title }}
- DOI:
{{ item.doi }} - 发表时间:
{{ item.publish_year }} - 期刊:
- 影响因子:{{ item.factor }}
- 作者:
{{ item.authors }} - 通讯作者:
{{ item.author }}
数据更新时间:{{ journalArticles.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ monograph.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ sciAawards.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ conferencePapers.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ patent.updateTime }}
Aryan Mokhtari其他文献
Convergence Analysis of Adaptive Gradient Methods under Refined Smoothness and Noise Assumptions
细化光滑度和噪声假设下自适应梯度法的收敛性分析
- DOI:
- 发表时间:
2024 - 期刊:
- 影响因子:0
- 作者:
Devyani Maladkar;Ruichen Jiang;Aryan Mokhtari - 通讯作者:
Aryan Mokhtari
A Second Order Method for Nonconvex Optimization
非凸优化的二阶方法
- DOI:
- 发表时间:
2017 - 期刊:
- 影响因子:0
- 作者:
Santiago Paternain;Aryan Mokhtari;Alejandro Ribeiro - 通讯作者:
Alejandro Ribeiro
In-Context Learning with Transformers: Softmax Attention Adapts to Function Lipschitzness
使用 Transformers 进行上下文学习:Softmax Attention 适应函数 Lipschitzness
- DOI:
10.48550/arxiv.2402.11639 - 发表时间:
2024 - 期刊:
- 影响因子:0
- 作者:
Liam Collins;Advait Parulekar;Aryan Mokhtari;Sujay Sanghavi;Sanjay Shakkottai - 通讯作者:
Sanjay Shakkottai
Target tracking with dynamic convex optimization
动态凸优化目标跟踪
- DOI:
10.1109/globalsip.2015.7418390 - 发表时间:
2015 - 期刊:
- 影响因子:0
- 作者:
Alec Koppel;Andrea Simonetto;Aryan Mokhtari;G. Leus;Alejandro Ribeiro - 通讯作者:
Alejandro Ribeiro
Adaptive Node Participation for Straggler-Resilient Federated Learning
自适应节点参与,实现落后者弹性联邦学习
- DOI:
- 发表时间:
2022 - 期刊:
- 影响因子:0
- 作者:
Amirhossein Reisizadeh;Isidoros Tziotis;Hamed Hassani;Aryan Mokhtari;Ramtin Pedarsani - 通讯作者:
Ramtin Pedarsani
Aryan Mokhtari的其他文献
{{
item.title }}
{{ item.translation_title }}
- DOI:
{{ item.doi }} - 发表时间:
{{ item.publish_year }} - 期刊:
- 影响因子:{{ item.factor }}
- 作者:
{{ item.authors }} - 通讯作者:
{{ item.author }}
{{ truncateString('Aryan Mokhtari', 18)}}的其他基金
CAREER: Structured Minimax Optimization: Theory, Algorithms, and Applications in Robust Learning
职业:结构化极小极大优化:稳健学习中的理论、算法和应用
- 批准号:
2338846 - 财政年份:2024
- 资助金额:
$ 50万 - 项目类别:
Continuing Grant
Collaborative Research: Computationally Efficient Algorithms for Large-scale Bilevel Optimization Problems
协作研究:大规模双层优化问题的计算高效算法
- 批准号:
2127697 - 财政年份:2021
- 资助金额:
$ 50万 - 项目类别:
Standard Grant
相似国自然基金
基于QM/MM的计算机辅助药物设计方法对去泛素化酶(DUBs)共价小分子抑制剂的设计与研究
- 批准号:82304385
- 批准年份:2023
- 资助金额:30 万元
- 项目类别:青年科学基金项目
基于加权隐私保护计算的非小细胞肺癌辅助诊断方法研究
- 批准号:62301006
- 批准年份:2023
- 资助金额:30 万元
- 项目类别:青年科学基金项目
基于小增益理论的物联网聚合计算鲁棒稳定性分析
- 批准号:62303112
- 批准年份:2023
- 资助金额:30 万元
- 项目类别:青年科学基金项目
靶向异柠檬酸裂解酶(ICL1)的抗结核小分子共价抑制机理的理论计算研究
- 批准号:22303075
- 批准年份:2023
- 资助金额:30 万元
- 项目类别:青年科学基金项目
基于计算流体动力学的太阳系复杂形状小天体正高系统建模研究
- 批准号:
- 批准年份:2022
- 资助金额:30 万元
- 项目类别:青年科学基金项目
相似海外基金
Inducing Off-pathway Assembly of HIV Gag Polyprotein with Computationally Designed Peptides
用计算设计的肽诱导 HIV Gag 多蛋白的非途径组装
- 批准号:
10724495 - 财政年份:2023
- 资助金额:
$ 50万 - 项目类别:
Computationally-Inspired Design of Non-Viral Gene Delivery Vehicles for mRNA-Based Cystic Fibrosis Therapies
用于基于 mRNA 的囊性纤维化治疗的非病毒基因传递载体的计算启发设计
- 批准号:
10760605 - 财政年份:2023
- 资助金额:
$ 50万 - 项目类别:
Supplement: New computer for computationally designing peptides to interfere with p53-MDM2 and p53-sirtuin interaction
补充:用于计算设计干扰 p53-MDM2 和 p53-sirtuin 相互作用的肽的新计算机
- 批准号:
10798727 - 财政年份:2022
- 资助金额:
$ 50万 - 项目类别:
A Computationally Efficient Approach to Predict Population Risk with Machine Learning
通过机器学习预测人口风险的高效计算方法
- 批准号:
10379613 - 财政年份:2022
- 资助金额:
$ 50万 - 项目类别:
Computationally designing peptides to interfere with p53-MDM2 and p53-sirtuin interaction
通过计算设计干扰 p53-MDM2 和 p53-sirtuin 相互作用的肽
- 批准号:
10439131 - 财政年份:2022
- 资助金额:
$ 50万 - 项目类别: