AF: Small: New classes of optimization methods for nonconvex large scale machine learning models.

AF:小型:非凸大规模机器学习模型的新型优化方法。

基本信息

  • 批准号:
    1618717
  • 负责人:
  • 金额:
    $ 49.91万
  • 依托单位:
  • 依托单位国家:
    美国
  • 项目类别:
    Standard Grant
  • 财政年份:
    2016
  • 资助国家:
    美国
  • 起止时间:
    2016-09-01 至 2020-08-31
  • 项目状态:
    已结题

项目摘要

Intelligent systems that say, recommend music or movies based on past interests, or recognize faces or handwriting based on labeled samples, often learn from examples using "supervised learning." The system tries to find a prediction function: a combination of feature values of the song, movie, image, or pen movements, that, on known inputs, produces score values that agree with known preferences. Some combinations may add with simple positive or negative weight parameters (The more guitar the better, or I really don't want accordion), while others can be more complex (nether too loud nor too soft). If parameters for such a function can be found, then it can be hoped that, on a new input, the function will be a good approximation for the preference. In scientific computing, there are many optimization techniques used to find the best parameters. The type called "gradient methods" is like a group hike that gets caught in the hills after dark; the members want to go downhill to return to the valley quickly, but take small steps so as not to trip. With a little light, the group can discover more about its vicinity to 1) suggest the best direction, 2) take longer steps without tripping, or 3) send different members in different directions so that someone finds the best way. When there are many parameters (not just latitude and longitude) there are many more directions to step. Simple combinations define simple (aka convex) valleys, and many optimization-based learning methods (including support vector machines (SVM), least squares, and logistic regression) have been effectively applied to find the best parameters. More complex combinations that sometime lead to better learning, may define non-convex valleys, so the known methods may get stuck in dips or have to take very small steps -- they often lack theoretical convergence guarantees and do not always work well in practice. This project will explore non-convex optimization for machine learning with three techniques that are analogous to the hikers? use of the light: First, new techniques will be explored for exploiting approximate second-order derivatives within stochastic methods, which is expected to improve performance over stochastic gradient methods, avoid convergence to saddle points, and improve complexity guarantees over first-order approaches. Compared to other such techniques that have been proposed, these approaches will be unique as they will be set within trust-region frameworks, the exploration of which represents the second component of the project. Known for decades to offer improved performance for nonconvex optimization, trust region algorithms have not fully been explored for machine learning, and we believe that, when combined with second-order information, dramatic improvements (both theoretically and practically) can be achieved. Finally, for such methods to be efficient in large-scale settings, one needs to offer techniques for solving trust region subproblems in situations when all data might not be stored on a single computer. To address this, parallel and distributed optimization techniques will be developed for solving trust region subproblems and related problems. The three PIs work together with about a dozen students at Lehigh; their website is one way they disseminate research papers, software, and news of weekly activities. This project is funded jointly by NSF CISE CCF Algorithmic Foundations, and NSF MPS DMS Computational Mathematics.
智能系统,比如根据过去的兴趣推荐音乐或电影,或者根据标记的样本识别人脸或笔迹,通常使用“监督学习”从示例中学习。“系统试图找到一个预测函数:歌曲、电影、图像或笔运动的特征值的组合,在已知的输入上,产生与已知偏好一致的评分值。一些组合可能会添加简单的正或负权重参数(吉他越多越好,或者我真的不想要手风琴),而其他组合可能会更复杂(既不是太大声也不是太柔和)。 如果可以找到这样一个函数的参数,那么可以希望,在新的输入上,该函数将是偏好的良好近似。在科学计算中,有许多优化技术用于寻找最佳参数。 所谓的“梯度法”就像一个团体徒步旅行,天黑后被困在山上;成员们想下山迅速返回山谷,但要小步走,以免绊倒。只要有一点点光,小组就可以发现更多关于其附近的信息,以1)建议最佳方向,2)采取更长的步骤而不会绊倒,或者3)将不同的成员派往不同的方向,以便有人找到最佳方法。当有许多参数(不仅仅是纬度和经度)时,有更多的方向要走。 简单的组合定义了简单的(也称为凸)谷,许多基于优化的学习方法(包括支持向量机(SVM),最小二乘法和逻辑回归)已被有效地应用于寻找最佳参数。 更复杂的组合有时会导致更好的学习,可能会定义非凸谷,因此已知的方法可能会陷入低谷,或者必须采取非常小的步骤-它们通常缺乏理论上的收敛保证,并且在实践中并不总是工作得很好。这个项目将探索机器学习的非凸优化,有三种类似于徒步旅行者的技术。光的使用:首先,将探索新的技术,利用近似二阶导数的随机方法,这有望提高性能的随机梯度方法,避免收敛到鞍点,并提高复杂性保证一阶方法。与已提出的其他此类技术相比,这些方法将是独特的,因为它们将被设置在信任区域框架内,对其的探索是该项目的第二个组成部分。几十年来,信赖域算法为非凸优化提供了更好的性能,但尚未完全用于机器学习,我们相信,当与二阶信息相结合时,可以实现显着的改进(理论上和实践上)。最后,为了使这些方法在大规模环境中有效,需要提供在所有数据可能不存储在单个计算机上的情况下解决信赖域子问题的技术。为了解决这个问题,并行和分布式优化技术将被开发用于解决信赖域子问题和相关问题。 这三个PI与十几个学生一起在利哈伊工作;他们的网站是他们传播研究论文、软件和每周活动新闻的一种方式。该项目由NSF CISE CCF数学基金会和NSF MPS DMS计算数学联合资助。

项目成果

期刊论文数量(20)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)
Modal Identification of Bridges Using Mobile Sensors with Sparse Vibration Data
  • DOI:
    10.1061/(asce)em.1943-7889.0001733
  • 发表时间:
    2020-04-01
  • 期刊:
  • 影响因子:
    3.3
  • 作者:
    Eshkevari, Soheil Sadeghi;Pakzad, Shamim N.;Matarazzo, Thomas J.
  • 通讯作者:
    Matarazzo, Thomas J.
Alternating maximization: unifying framework for 8 sparse PCA formulations and efficient parallel codes
交替最大化:8 个稀疏 PCA 公式和高效并行代码的统一框架
  • DOI:
    10.1007/s11081-020-09562-3
  • 发表时间:
    2020
  • 期刊:
  • 影响因子:
    2.1
  • 作者:
    Richtárik, Peter;Jahani, Majid;Ahipaşaoğlu, Selin Damla;Takáč, Martin
  • 通讯作者:
    Takáč, Martin
Convolutional Neural Network Approach for Robust Structural Damage Detection and Localization
  • DOI:
    10.1061/(asce)cp.1943-5487.0000820
  • 发表时间:
    2019-05-01
  • 期刊:
  • 影响因子:
    6.9
  • 作者:
    Gulgec, Nur Sila;Takac, Martin;Pakzad, Shamim N.
  • 通讯作者:
    Pakzad, Shamim N.
Randomized sketch descent methods for non-separable linearly constrained optimization
用于不可分离线性约束优化的随机草图下降法
  • DOI:
    10.1093/imanum/draa018
  • 发表时间:
    2020
  • 期刊:
  • 影响因子:
    2.1
  • 作者:
    Necoara, Ion;Takáč, Martin
  • 通讯作者:
    Takáč, Martin
Entropy-Penalized Semidefinite Programming
  • DOI:
    10.24963/ijcai.2019/157
  • 发表时间:
    2018-02
  • 期刊:
  • 影响因子:
    0
  • 作者:
    M. Krechetov;Jakub Marecek;Yury Maximov;Martin Takác
  • 通讯作者:
    M. Krechetov;Jakub Marecek;Yury Maximov;Martin Takác
{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ monograph.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ sciAawards.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ conferencePapers.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ patent.updateTime }}

Frank Curtis其他文献

Numerical semigroups of maximal and almost maximal length
  • DOI:
    10.1007/bf02573421
  • 发表时间:
    1991-12-01
  • 期刊:
  • 影响因子:
    0.700
  • 作者:
    William C. Brown;Frank Curtis
  • 通讯作者:
    Frank Curtis

Frank Curtis的其他文献

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

{{ truncateString('Frank Curtis', 18)}}的其他基金

Collaborative Research: AF: Small: A Unified Framework for Analyzing Adaptive Stochastic Optimization Methods Based on Probabilistic Oracles
合作研究:AF:Small:基于概率预言的自适应随机优化方法分析统一框架
  • 批准号:
    2139735
  • 财政年份:
    2022
  • 资助金额:
    $ 49.91万
  • 项目类别:
    Standard Grant
Collaborative Research: AF: Small: Adaptive Optimization of Stochastic and Noisy Function
合作研究:AF:小:随机和噪声函数的自适应优化
  • 批准号:
    2008484
  • 财政年份:
    2020
  • 资助金额:
    $ 49.91万
  • 项目类别:
    Standard Grant
Collaborative Research: SSMCDAT2020: Solid-State and Materials Chemistry Data Science Hackathon
合作研究:SSMCDAT2020:固态和材料化学数据科学黑客马拉松
  • 批准号:
    1938729
  • 财政年份:
    2019
  • 资助金额:
    $ 49.91万
  • 项目类别:
    Standard Grant
Collaborative Research: TRIPODS Institute for Optimization and Learning
合作研究:TRIPODS 优化与学习研究所
  • 批准号:
    1740796
  • 财政年份:
    2018
  • 资助金额:
    $ 49.91万
  • 项目类别:
    Continuing Grant
Nonlinear Optimization Algorithms for Large-Scale and Nonsmooth Applications
适用于大规模和非光滑应用的非线性优化算法
  • 批准号:
    1016291
  • 财政年份:
    2010
  • 资助金额:
    $ 49.91万
  • 项目类别:
    Standard Grant

相似国自然基金

昼夜节律性small RNA在血斑形成时间推断中的法医学应用研究
  • 批准号:
  • 批准年份:
    2024
  • 资助金额:
    0.0 万元
  • 项目类别:
    省市级项目
tRNA-derived small RNA上调YBX1/CCL5通路参与硼替佐米诱导慢性疼痛的机制研究
  • 批准号:
    n/a
  • 批准年份:
    2022
  • 资助金额:
    10.0 万元
  • 项目类别:
    省市级项目
Small RNA调控I-F型CRISPR-Cas适应性免疫性的应答及分子机制
  • 批准号:
    32000033
  • 批准年份:
    2020
  • 资助金额:
    24.0 万元
  • 项目类别:
    青年科学基金项目
Small RNAs调控解淀粉芽胞杆菌FZB42生防功能的机制研究
  • 批准号:
    31972324
  • 批准年份:
    2019
  • 资助金额:
    58.0 万元
  • 项目类别:
    面上项目
变异链球菌small RNAs连接LuxS密度感应与生物膜形成的机制研究
  • 批准号:
    81900988
  • 批准年份:
    2019
  • 资助金额:
    21.0 万元
  • 项目类别:
    青年科学基金项目
基于small RNA 测序技术解析鸽分泌鸽乳的分子机制
  • 批准号:
    31802058
  • 批准年份:
    2018
  • 资助金额:
    26.0 万元
  • 项目类别:
    青年科学基金项目
肠道细菌关键small RNAs在克罗恩病发生发展中的功能和作用机制
  • 批准号:
    31870821
  • 批准年份:
    2018
  • 资助金额:
    56.0 万元
  • 项目类别:
    面上项目
Small RNA介导的DNA甲基化调控的水稻草矮病毒致病机制
  • 批准号:
    31772128
  • 批准年份:
    2017
  • 资助金额:
    60.0 万元
  • 项目类别:
    面上项目
基于small RNA-seq的针灸治疗桥本甲状腺炎的免疫调控机制研究
  • 批准号:
    81704176
  • 批准年份:
    2017
  • 资助金额:
    20.0 万元
  • 项目类别:
    青年科学基金项目
水稻OsSGS3与OsHEN1调控small RNAs合成及其对抗病性的调节
  • 批准号:
    91640114
  • 批准年份:
    2016
  • 资助金额:
    85.0 万元
  • 项目类别:
    重大研究计划

相似海外基金

Collaborative Research: AF: Small: New Directions in Algorithmic Replicability
合作研究:AF:小:算法可复制性的新方向
  • 批准号:
    2342244
  • 财政年份:
    2024
  • 资助金额:
    $ 49.91万
  • 项目类别:
    Standard Grant
Collaborative Research: AF: Small: New Connections between Optimization and Property Testing
合作研究:AF:小型:优化和性能测试之间的新联系
  • 批准号:
    2402572
  • 财政年份:
    2024
  • 资助金额:
    $ 49.91万
  • 项目类别:
    Standard Grant
Collaborative Research: AF: Small: New Directions in Algorithmic Replicability
合作研究:AF:小:算法可复制性的新方向
  • 批准号:
    2342245
  • 财政年份:
    2024
  • 资助金额:
    $ 49.91万
  • 项目类别:
    Standard Grant
Collaborative Research: AF: Small: New Connections between Optimization and Property Testing
合作研究:AF:小型:优化和性能测试之间的新联系
  • 批准号:
    2402571
  • 财政年份:
    2024
  • 资助金额:
    $ 49.91万
  • 项目类别:
    Standard Grant
Collaborative Research: AF: Small: New Directions and Approaches in Discrepancy Theory
合作研究:AF:小:差异理论的新方向和方法
  • 批准号:
    2327010
  • 财政年份:
    2023
  • 资助金额:
    $ 49.91万
  • 项目类别:
    Standard Grant
Collaborative Research: AF: Small: New Directions and Approaches in Discrepancy Theory
合作研究:AF:小:差异理论的新方向和方法
  • 批准号:
    2327011
  • 财政年份:
    2023
  • 资助金额:
    $ 49.91万
  • 项目类别:
    Standard Grant
AF: Small: New Challenges and Approaches in Clustering Algorithms
AF:小:聚类算法的新挑战和方法
  • 批准号:
    2311397
  • 财政年份:
    2023
  • 资助金额:
    $ 49.91万
  • 项目类别:
    Standard Grant
NSF-BSF: AF: Small: New directions in geometric traversal theory
NSF-BSF:AF:小:几何遍历理论的新方向
  • 批准号:
    2317241
  • 财政年份:
    2023
  • 资助金额:
    $ 49.91万
  • 项目类别:
    Standard Grant
AF: Small: New Tools to Analyze Random Walks
AF:小:分析随机游走的新工具
  • 批准号:
    2203541
  • 财政年份:
    2022
  • 资助金额:
    $ 49.91万
  • 项目类别:
    Standard Grant
AF: Small: Towards New Relaxations for Online Algorithms
AF:小:在线算法的新放松
  • 批准号:
    2224718
  • 财政年份:
    2022
  • 资助金额:
    $ 49.91万
  • 项目类别:
    Standard Grant
{{ showInfoDetail.title }}

作者:{{ showInfoDetail.author }}

知道了