大规模机器学习问题的结构优化方法研究
批准号:
61273296
项目类别:
面上项目
资助金额:
83.0 万元
负责人:
陶卿
依托单位:
学科分类:
F0603.机器学习
结题年份:
2016
批准年份:
2012
项目状态:
已结题
项目参与者:
杨志林、储德军、汪群山、章显、王玉军、高乾坤、王惊晓、姜纪远、宋辉
国基评审专家1V1指导 中标率高出同行96.8%
结合最新热点,提供专业选题建议
深度指导申报书撰写,确保创新可行
指导项目中标800+,快速提高中标率
微信扫码咨询
中文摘要
机器学习正面临着数据规模日益增长的严峻挑战,如何处理大规模甚至超大规模数据问题是当前统计学习亟需解决的关键性科学问题。大规模机器学习问题的训练样本集合往往具有冗余和稀疏的特点,机器学习优化问题的正则化项和损失函数也蕴含着特殊的结构含义,直接使用整个目标函数梯度的批处理黑箱方法不仅难以处理大规模问题,也无法满足机器学习对结构的要求。.目前,依靠机器学习自身特点驱动而迅速发展起来的坐标优化、在线和随机优化算法成为解决大规模问题的有效手段。.本项目主要研究充分利用训练数据结构和有效保证机器学习问题结构的大规模优化算法,特别是正则化损失函数优化问题的坐标优化、在线和随机优化算法,其中包括发展基于新优化原理的在线与随机算法、提出保证损失函数结构的在线及坐标优化算法和得到求解正则化非光滑损失的坐标优化算法等等
英文摘要
Machine learning is facing the great challenge arising from the endlessly increasing scale of data. How to cope with the large-scale even huge-scale data is a key problem in emerging area of statistical learning. Usually, there exist redundancy and sparsity in the training set of a large-scale problem, and there are structural implications in the regularizer and loss function of a learning problem. If we straightforward employ the gradient-type and black-box methods in batch settings, not only the large-scale problems can not be solved but also the structural information implied by the machine learning can not be exploited...Recently, the state-of-the-art scalable methods such as coordinate descent, online and stochastic algorithms, which is driven by the characteristics of machine learning, have become the dominant paradigm for large-scale problems...This project is devoted to the scalable optimization algorithms that can not only sufficiently exploit the structure of training sets but also effectively keep the structure of learning problems. In particular, we study the coordinate descent, online and stochastic algorithms for the minimization of regularized loss problems. The main content of this project includes the online and stochastic algorithms based on new optimization principles, the coordinate descent and stochastic algorithms keeping the structure of loss functions, and the coordinate descent algorithm for nonsmooth losses.
机器学习正面临着数据规模日益增长的严峻挑战,如何处理大规模数据是当前统计学习亟需解决的关键性科学问题。目前,依靠机器学习自身特点驱动而迅速发展起来的坐标优化、在线和随机优化算法成为解决大规模问题的有效手段。如何在这些优化算法中保持学习问题的结构是首先需要解决的问题。..本项目的总体目标是研究求解大规模机器学习问题保持结构信息的优化算法,特别是正则化损失函数优化问题的坐标优化和一阶梯度随机优化算法。具体来说:.(1)提出了一种随机的ADMM(Alternating Direction Method of Multipliers),证明了其对一般凸问题关于变分不等式标准具有O(1/t)的收敛速率。实验结果表明所提出的算法和当前主流算法具有几乎相同的识别速率,但基于变分不等式标准的收敛性能更好地描述学习速率。.(2)提出了一种基于批处理算法设计坐标优化算法的一般框架,在一阶梯度方法如对偶平均、镜面下降梯度算法和ADMM的基础上得到了若干坐标优化算法。我们还对不均衡分类中AUC优化问题、非监督学习的支持向量数据描述(SVDD)问题和截断L1正则化项的非凸优化问题,分别给出了坐标优化方法。.(3)在SGD中使用α-suffix平均和加权平均技巧求解强凸优化问题时均可以获得最优收敛速率。我们将这两种技巧从黑箱方法拓广至稀疏结构优化方法,得到了一些具有最优收敛速率的稀疏优化算法。为了获得更好的稀疏性,我们还将SGD的个体收敛速率以及在随机步长策略下的最优个体收敛速率结果拓广至稀疏结构优化问题。.(4)在保持损失函数结构的优化算法方面,本项目关注的是截断hinge 损失函数导致非凸优化问题中的支持向量结构保持问题。我们提出了一种多阶段优化方法,在优化过程中,保持损失函数不被线性化,而只对样本点集合进行事先删减。在此基础上,我们给出了一种求解大规模问题的坐标优化算法。..本项目总共发表论文16篇,其中SCI检索1篇,EI检索11篇。一些成果已经被重要的会议和期刊引用。培养的硕士研究生分别获得了安徽省优秀硕士论文2014、全军优秀硕士论文2013和CCDM2016(中国数据挖掘会议)最佳学生论文奖。
期刊论文列表
专著列表
科研奖励列表
会议论文列表
专利列表
DOI:--
发表时间:--
期刊:模式识别与人工智能
影响因子:--
作者:陶卿;罗强;朱烨雷;褚德军
通讯作者:褚德军
DOI:--
发表时间:2013
期刊:电子学报
影响因子:--
作者:陶卿;朱烨雷;罗强;孔康
通讯作者:孔康
DOI:--
发表时间:2014
期刊:计算机研究与发展
影响因子:--
作者:王玉军;高乾坤;章显;陶卿
通讯作者:陶卿
DOI:--
发表时间:2014
期刊:计算机工程
影响因子:--
作者:王惊晓;高乾坤;汪群山
通讯作者:汪群山
DOI:--
发表时间:2014
期刊:计算机研究与发展
影响因子:--
作者:姜纪远;夏良;章显;陶卿
通讯作者:陶卿
机器学习问题的动量优化方法研究
- 批准号:62076252
- 项目类别:面上项目
- 资助金额:59万元
- 批准年份:2020
- 负责人:陶卿
- 依托单位:
机器学习随机优化方法的个体收敛性研究
- 批准号:61673394
- 项目类别:面上项目
- 资助金额:65.0万元
- 批准年份:2016
- 负责人:陶卿
- 依托单位:
基于损失函数的统计机器学习算法及其应用研究
- 批准号:60975040
- 项目类别:面上项目
- 资助金额:29.0万元
- 批准年份:2009
- 负责人:陶卿
- 依托单位:
统计学习理论与算法研究
- 批准号:60575001
- 项目类别:面上项目
- 资助金额:23.0万元
- 批准年份:2005
- 负责人:陶卿
- 依托单位:
国内基金
海外基金















{{item.name}}会员


