在上一篇博客中,自己介绍了Levenberg_Marquardt的算法流程,特点以及在非线性最小二乘问题上的应用,信赖域算法也是自己曾经研究过的算法,并且在姿态估计上进行了应用,比较下来,得到的精度和Levenberg_Marquardt算法不相上下,但是收敛速度却不如LM。本文介绍一下自己对信赖域算法的理解,与童鞋们分享一下。
相信做过机器学习的童鞋,一定使用过搜索算法,例如梯度下降法,牛顿法,拟牛顿法,BFGS算法,LM算法等,这些算法有一个共同的特点,它们的基本策略,也就是所谓的算法思想,都是“定方向,定步长”,不知道我这么概括准确不准确,比如说经典到骨子里的梯度下降,先选择梯度相反方向作为搜索方向,然后要么一维搜索,要么索性定个步长公式,沿着既定方向根据步长确定变量更新值,无一例外。然而,半路杀出了个程咬金,信赖域算法却不是这样干的,人家采用的方法是“定区域,定极值”的方法,来达到同样的目的。牛逼吧?我替你回答, 是的。这个毁三观的行为,造就了有趣的信赖域算法。
信赖域算法是在一个球形区域内进行搜索,具体说来,先定好一个球形区域,然后在这个球形区域的中心点进行二阶泰勒近似(和LM是不是很像?LM是一阶泰勒近似),如公式(1)所示,这个近似美其名曰“子问题”,由于二阶泰勒近似其实就是一个二次规划问题,可以直接求取极值,得到了子问题的最优解之后,下一步就要考察这个最优解(也就是参数变化量d)是否能够使得“原问题”不断的下降,这里,引入了一个比较巧妙的度量方式,用于度量函数值实际下降量和预测下降量之间的比值,如公式(2)所示,如果这个比值大于一定的数值,说明参数变化量d是正确的,进一步,调整球形的半径r,否则,就要摒弃这个d,减小半径r,重新搜索。精髓一句话,每一步迭代都会转化为子问题来处理,不断地更新参数,最终得到收敛解。
(1)
(2)
正如上一篇博客一样,担心大家听不懂我在说什么,我还是画个算法流程图,如下所示:
同样也附上算法代码,这里我还是用信赖域算法,去解决任何一个非线性最小二乘问题,输入变量的含义均已进行注释。
下一篇博客,我会比较LM与信赖域算法之间对于同一问题的处理速度和算法精度,我觉得这两个算法有必要好好的比较一下。
如果有bug或error,还请多多指教啊!小弟嗷嗷感激!!
感慨一下,matlab具有强大的符号计算能力,实在是太方便了,总有人说matlab不能算是编程语言,我是超级不同意的,matlab是一门强大的编程语言好不好。尤其是在算法方面。
联系客服