几种常用最优化方法

   www.gaoxiao88.net
学习和工作中遇到的大多问题都可以建模成一种最优化模型进行求解,比如我们现在学习的机器学习算法,大部分的机器学习算法的本质都是建立优化模型,通过最优化方法对目标函数(或损失函数)进行优化,从而训练出最好的模型。常见的优化方法(optimization)有梯度下降法、牛顿法和拟牛顿法、共轭梯度法等等。

1. 梯度下降法(Gradient Descent)

梯度下降法是最早最简单,也是最为常用的最优化方法。梯度下降法实现简单,当目标函数是凸函数时,梯度下降法的解是全局解。一般情况下,其解不保证是全局最优解,梯度下降法的速度也未必是最快的。 梯度下降法的优化思想是用当前位置负梯度方向作为搜索方向,因为该方向为当前位置的最快下降方向,所以也被称为是”最速下降法“。最速下降法越接近目标值,步长越小,前进越慢。

梯度下降 法的缺点:

  (1)靠近极小值时收敛速度减慢;

  (2)直线搜索时可能会产生一些问题;

  (3)可能会“之字形”地下降。

在机器学习中,基于基本的梯度下降法发展了两种梯度下降方法,分别为随机梯度下降法和批量梯度下降法。

比如对一个线性回归(Linear Logistics)模型,假设下面的h(x)是要拟合的函数,J( )为损失函数, 是参数,要迭代求解的值,求解出来了那最终要拟合的函数h( )就出来了。其中m是训练集的样本个数,n是特征的个数。

1)批量梯度下降法(Batch Gradient Descent,BGD)

(1)将J( )对 求偏导,得到每个theta对应的的梯度:

(2)由于是要最小化风险函数,所以按每个参数 的梯度负方向,来更新每个 :

        (3)从上面公式可以注意到,它得到的是一个全局最优解,但是每迭代一步,都要用到训练集所有的数据,如果m很大,那么可想而知这种方法的迭代速度会相当的慢。所以,这就引入了另外一种方法——随机梯度下降。

  对于批量梯度下降法,样本个数m,x为n维向量,一次迭代需要把m个样本全部带入计算,迭代一次计算量为m*n2。

2)随机梯度下降(Stochastic Gradient Descent,SGD)

        (1)上面的风险函数可以写成如下这种形式,损失函数对应的是训练集中每个样本的粒度,而上面批量梯度下降对应的是所有的训练样本:

(2)每个样本的损失函数,对 求偏导得到对应梯度,来更新 :

(3)随机梯度下降是通过每个样本来迭代更新一次,如果样本量很大的情况(例如几十万),那么可能只用其中几万条或者几千条的样本,就已经将

迭代到最优解了,对比上面的批量梯度下降,迭代一次需要用到十几万训练样本,一次迭代不可能最优,如果迭代10次的话就需要遍历训练样本10次。但是,SGD伴随的一个问题是噪音较BGD要多,使得SGD并不是每次迭代都向着整体最优化方向。

随机梯度下降每次迭代只使用一个样本,迭代一次计算量为n2,当样本个数m很大的时候,随机梯度下降迭代一次的速度要远高于批量梯度下降方法。 两者的关系可以这样理解:随机梯度下降方法以损失很小的一部分精确度和增加一定数量的迭代次数为代价,换取了总体的优化效率的提升。增加的迭代次数远远小于样本的数量。

对批量梯度下降法和随机梯度下降法的总结:

批量梯度下降---最小化所有训练样本的损失函数,使得最终求解的是全局的最优解,即求解的参数是使得风险函数最小,但是对于大规模样本问题效率低下。

随机梯度下降---最小化每条样本的损失函数,虽然不是每次迭代得到的损失函数都向着全局最优方向, 但是大的整体的方向是向全局最优解的,最终的结果往往是在全局最优解附近,适用于大规模训练样本情况。

2. 牛顿法和拟牛顿法(Newton's method & Quasi-Newton Methods)

1)牛顿法(Newton's method)

牛顿法是一种在实数域和复数域上近似求解方程的方法。方法使用函数 f  ( x )的泰勒级数的前面几项来寻找方程 f  ( x ) = 0的根。牛顿法最大的特点就在于它的收敛速度很快。

具体步骤:

首先,选择一个接近函数 f  ( x )零点的x0,计算相应的 f  ( x 0)和切线斜率 f  '  ( x 0)(这里 f '  表示函数 f   的导数)。然后我们计算穿过点( x 0, f   ( x 0))并且斜率为 f  '( x 0)的直线和 x  轴的交点的 x 坐标,也就是求如下方程的解:

我们将新求得的点的 x  坐标命名为 x 1,通常 x 1会比 x 0更接近方程 f   ( x ) = 0的解。因此我们现在可以利用 x 1开始下一轮迭代。迭代公式可化简为如下所示:

已经证明,如果 f   '是连续的,并且待求的零点 x 是孤立的,那么在零点 x 周围存在一个区域,只要初始值 x 0位于这个邻近区域内,那么牛顿法必定收敛。 并且,如果 f   ' ( x )不为0, 那么牛顿法将具有平方收敛的性能. 粗略的说,这意味着每迭代一次,牛顿法结果的有效数字将增加一倍。下图为一个牛顿法执行过程的例子。

  由于牛顿法是基于当前位置的切线来确定下一次的位置,所以牛顿法又被很形象地称为是"切线法"。

关于牛顿法和梯度下降法的效率对比:

  从本质上去看,牛顿法是二阶收敛,梯度下降是一阶收敛,所以牛顿法就更快。如果更通俗地说的话,比如你想找一条最短的路径走到一个盆地的最底部,梯度下降法每次只从你当前所处位置选一个坡度最大的方向走一步,牛顿法在选择方向时,不仅会考虑坡度是否够大,还会考虑你走了一步之后,坡度是否会变得更大。所以,可以说牛顿法比梯度下降法看得更远一点,能更快地走到最底部。(牛顿法目光更加长远,所以少走弯路;相对而言,梯度下降法只考虑了局部的最优,没有全局思想。)

  根据wiki上的解释,从几何上说,牛顿法就是用一个二次曲面去拟合你当前所处位置的局部曲面,而梯度下降法是用一个平面去拟合当前的局部曲面,通常情况下,二次曲面的拟合会比平面更好,所以牛顿法选择的下降路径会更符合真实的最优下降路径。

注:红色的牛顿法的迭代路径,绿色的是梯度下降法的迭代路径。

牛顿法的优缺点总结:

优点:二阶收敛,收敛速度快;

缺点:牛顿法是一种迭代算法,每一步都需要求解目标函数的Hessian矩阵的逆矩阵,计算比较复杂。

2)拟牛顿法(Quasi-Newton Methods)

  拟牛顿法是求解非线性优化问题最有效的方法之一,于20世纪50年代由美国Argonne国家实验室的物理学家W.C.Davidon所提出来。Davidon设计的这种算法在当时看来是非线性优化领域最具创造性的发明之一。不久R. Fletcher和M. J. D. Powell证实了这种新的算法远比其他方法快速和可靠,使得非线性优化这门学科在一夜之间突飞猛进。

拟牛顿法的本质思想是改善牛顿法每次需要求解复杂的Hessian矩阵的逆矩阵的缺陷,它使用正定矩阵来近似Hessian矩阵的逆,从而简化了运算的复杂度。 拟牛顿法和最速下降法一样只要求每一步迭代时知道目标函数的梯度。通过测量梯度的变化,构造一个目标函数的模型使之足以产生超线性收敛性。这类方法大大优于最速下降法,尤其对于困难的问题。另外,因为拟牛顿法不需要二阶导数的信息,所以有时比牛顿法更为有效。如今,优化软件中包含了大量的拟牛顿算法用来解决无约束,约束,和大规模的优化问题。

具体步骤:

  拟牛顿法的基本思想如下。首先构造目标函数在当前迭代xk的二次模型:

这里Bk是一个对称正定矩阵,于是我们取这个二次模型的最优解作为搜索方向,并且得到新的迭代点:

其中我们要求步长ak 满足Wolfe条件。这样的迭代与牛顿法类似,区别就在于用近似的Hesse矩阵Bk 代替真实的Hesse矩阵。所以拟牛顿法最关键的地方就是每一步迭代中矩阵Bk的更新。现在假设得到一个新的迭代xk+1,并得到一个新的二次模型:

我们尽可能地利用上一步的信息来选取Bk。具体地,我们要求

从而得到

这个公式被称为割线方程。常用的拟牛顿法有DFP算法和BFGS算法。

原文链接: [Math] 常见的几种最优化方法 - Poll的笔记 - 博客园

相关参考:

梯度下降法是什么?
可以用于求解非线性方程组。简介 梯度下降是迭代法的一种,可以用于求解最小二乘问题(线性和非线性都可以)。在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(Gradient Descent)是最常采用的方法之一,另一种常用的方法是最小二乘法。在求解损失函数的最小值时,可以通过梯度下降法来一...

最优化选择法数学原理
代入式(2.2.1)中将使φ值获得极小,这时bi即为我们的解释结果,这称为最小二乘意义下的最优化选择法。 我们称φ为目标函数,用它来衡量理论曲线与实测曲线的符合程度。最优化方法的关键在于求取使φ值获得极小参量的改正值δi,而f通常是bi的非线性函数,因而该问题归结为非线性函数极小的问题。 2.2.2 求非线性...

梯度下降法是什么?
梯度下降法,是一种基于搜索的最优化方法,它其实不是一个机器学习算法,但是在机器学习领域,许多算法都是以梯度下降法为基础的,它的主要作用是寻找目标函数的最优解。在求解损失函数的最小值时,可以通过梯度下降法来一步步的迭代求解,得到最小化的损失函数和模型参数值。反过来,如果我们需要求解损失...

运筹学中最常用的方法有哪些?
运筹学是研究决策问题的一门学科,它主要使用数学模型和定量分析方法来解决实际问题。在运筹学中,有许多常用的方法,包括线性规划、整数规划、非线性规划、动态规划、图论、网络优化等。线性规划是一种最优化技术,它的目标是在一组线性约束条件下,找到一个最优解。线性规划可以用来解决许多实际问题,如...

什么是dp算法?
DP算法是解决多阶段决策过程最优化问题的一种常用方法。多阶段决策过程(multistep decision process)是指这样一类特殊的活动过程,过程可以按时间顺序分解成若干个相互联系的阶段,在每一个阶段都需要做出决策,全部过程的决策是一个决策序列。动态规划(dynamic programming)算法是解决多阶段决策过程最优化...

动态规划是研究什么问题最优化的一种方法
虽然动态规划主要用于求解以时间划分阶段的动态过程的优化问题,但是一些与时间无关的静态规划(如线性规划、非线性规划),只要人为地引进时间因素,把它视为多阶段决策过程,也可以用动态规划方法方便地求解。 动态规划程序设计是对解最优化问题的一种途径、一种方法,而不是一种特殊算法。不象前面所述的那些搜索或数值...

优选法主要有哪几种实验方法?
模拟实验法:撞车模拟实验,飞行员、井台工人的训练。虚拟实验法:勇气号登陆火星表面的场景效果,小浪底工程效果模拟。强化试验法:显示器老化试验,强化腐蚀试验。移植实验法:小白鼠药物试验。优选法的基本步骤:优选法是建立在最优化技术的基础上的,它是一门迅速发展的新科学。优选法也叫最优化方法,...

最优化理论谁提出的
最优化理论是由尤里·康斯坦丁夫·巴班斯基提出的。

哪种造字法是最优化的汉字再生方法
最优化的汉字再生方法是形声法。形声法就是由形旁和声旁拼合而成的造字法。因为形声字是在象形、指事、会意的基础上产生的。尽管它还属于表意性质的文字,但已突破了汉字形体的束缚,沟通了方块汉字与语音的联系,这是汉字从表意迈向表音的一个重大发展,成了汉字发展的主流。今天我们所用的汉字,80%...

动态规划是解决什么决策过程中最优化问题的一种方法
多阶段决策。动态规划将多阶段决策问题分解为一系列单阶段问题,逐个解决,最终达到全局最优解。避免了重复计算,提高了效率,是解决多阶段决策过程中最优化问题的一种有效方法。

相关评论

  • 蒙英5460: 最优化方法 - 搜狗百科
    19152397916: 优选法(optimization method)以数学原理为指导,合理安排试验,以尽可能少的试验次数尽快找到生产和科学实验中最优方案的科学方法.即最优化方法. 优选法在数学上就是寻找函数极值的较快较精确的计算方法.1953年美国数学家J.基弗提出...

  • 蒙英5460: 电脑经典优化技巧 -
    19152397916: 在使用XP的过过程中,系统运行速度会随着时间的推移越来越慢了,有的朋友可能会想到重装系统,但重装后,那么多的应用软件也要重新安装,如何在不安装系统的前提下提升XP的运行速度呢?只要你安照以下九个方面操作,相信你的XP又...

  • 蒙英5460: 非线性最优化的不同算法各适用于什么情况 -
    19152397916: 1 无约束非线性最优化问题常用算法:梯度法(最速下降法)、共轭梯度法、变尺度法和步长加速法.其中,前三个要用到函数的一阶导数或二阶导数,适用于函数表达式导数存在且求导简单的情况,而步长加速法则相反,适用于函数表达示复杂,甚至无解析表达式,或导数不存在情况.2 约束非线性最优化问题常用算法:按照是否化成无约束问题可分为 可行方向法、制约函数法(外点法和内点法),其中内点法适用于目标函数在可行域外性质复杂情况,外点法则相反.后者根据罚函数或障碍函数的构造不同,又有不同的变形.

  • 蒙英5460: 求最值得几个方法 -
    19152397916: 你提及的几种方法可以称为传统的最优化方法,其特点是得选择一个初值去搜索,搜索到的结果对非凸问题来说有时容易陷入局部极小值,而不是通常意义下的最优值(全局最优值).遗传算法这类算法的最大好处是可以从若干个初值出发搜索(可以认为是并行算法),所以更可能找到全局最优值.如果这个问题是凸问题(如线性规划),用传统方法比遗传算法有优势,但对非凸问题来说,不妨试试遗传算法看看能不能找到更好的解

  • 蒙英5460: 机械优化有哪些类别 -
    19152397916: 一.无约束最优化方法1.梯度法(最速下降法)2.牛顿法(基本牛顿法、阻尼牛顿法)3.变尺度法(拟牛顿法)4.共轭梯度法5.鲍威尔法(基本鲍威尔法、修正鲍威尔法) 二.约束最优化方法1.可行方向法2.惩罚函数法(外点法、内点法、混合法)3.乘子法(等式约束问题乘子法、不等式约束问题乘子法)4.序列二次规划法5.多目标最优化法(主要目标法、线性加权法、理想点法、目标逼近法、最大最小法) 三.智能最优化方法1.遗传算法2.神经网络算法(人工神经元与神经网络模型、BP网络、径向基RBF网络、Hopfield网络)

  • 相关话题

    ap在线精英在线最新简短笑话,好笑的段子,搞笑句子,男女朋友校园冷笑话,搞笑歌词对白台词,夫妻搞笑对话,手机流行笑话,逗人笑的动物经典笑话,最新幽默搞笑图文,好笑的视频分享给朋友
    若有事情,请联系电邮
    © <搞笑吧