牛顿法以及用牛顿法求极值

牛顿法

牛顿法经常作为一个和梯度下降做对比的求解机器学习收敛结果的方法。需要明确的是首先牛顿法本身是作为求解函数零点问题的一种方法。具体做法是:当想要求解  f(\theta)=0 时,如果f可导,那么可以通过迭代公式:
\theta :=\theta-\frac{f(\theta)}{f^{\prime}(\theta)}
来迭代求得零点。
需要注意的是,牛顿法根据选取的初始值的不同,有可能会不收敛!通常选取在零点附近作为初始值。

牛顿法求函数零点
牛顿法之所以能work,是因为利用了泰勒展开。
我们把 f(x)=0 x_0处展开且展开到一阶,得到f(x)=f\left(x_{0}\right)+f^{\prime}\left(x_{0}\right)\left(x-x_{0}\right)  所以目标就变成了要让:f\left(x_{0}\right)+f^{\prime}\left(x_{0}\right)\left(x-x_{0}\right)=0 所以就变成了:x=x_{1}=x_{0}-\frac{f\left(x_{0}\right)}{f^{\prime}\left(x_{0}\right)}
因为f(x)=f\left(x_{0}\right)+f^{\prime}\left(x_{0}\right)\left(x-x_{0}\right) 并非处处相等,而是只在x_0附近可以这么认为,这里求得的x_1并不能让f(x) = 0,只能说f(x_1)的值比f(x_0)更接近于0,所以这就可以用迭代来逼近了!

这里来插入一下如果自变量不是一个单变量的泰勒展开式,假设函数f(x,y) 那么它在(x0,y0)处的一阶泰勒展开计作L(x,y)写作:
L(x,y) = f(x_0,y_0) + f_x(x_0,y_0)*(x-x_0) + f_y(x_0,y_0)*(y-y_0)

牛顿法求极值

在机器学习中,问题就不是求零点,而是希望求loss function的最小值,于是可以写作求\ell^{\prime}(\theta)=0 同理,这种情况下的迭代过程就是:
\theta :=\theta-\frac{\ell^{\prime}(\theta)}{\ell^{\prime \prime}(\theta)}

回忆一下梯度下降的公式:
\theta_{j} :=\theta_{j}-\alpha \frac{\partial}{\partial \theta_{j}} J(\theta)

这里就可以看出和梯度下降的对比了:这个与梯度下降不同,梯度下降的目的是直接求解目标函数极小值,而牛顿法则变相地通过求解目标函数一阶导为零的参数值,进而求得目标函数最小值
红色是牛顿法的收敛路径
绿色是梯度下降的收敛路径

牛顿法求极值之所以work,是因为利用了泰勒二阶展开。
函数f(x)x_k处的二阶泰勒展开计作\phi(x),写作:
\phi(x)=f\left(x_{k}\right)+f^{\prime}\left(x_{k}\right)\left(x-x_{k}\right)+\frac{1}{2} f^{\prime\prime}\left(x_{k}\right)\left(x-x_{k}\right)^{2}
既然我们想要求f(x)的极值,所以令其导数为0,即:f^{\prime}(x)=0 ,用二阶泰勒展开式替代的话就是:\phi^{\prime}(x)=0 对上式求导的话,就是:
\phi^{\prime}(x)=f^{\prime}(x_k)+f^{\prime\prime}\left(x_{k}\right)\left(x-x_{k}\right)=0
所以就变成了:
x=x_{k}-\frac{f^{\prime}\left(x_{k}\right)}{f^{\prime\prime}\left(x_{k}\right)}

这里再插入一下,如果自变量是多元的情况下的二阶泰勒展开公式:
Q(x, y)=f\left(x_{0}, y_0\right)+f_{x}\left(x_{0}, y_0\right)\left(x-x_{0}\right)+f_{y}\left(x_{0}, y_{0}\right)\left(y-y_{0}\right)
+ f_{x x}\left(x_{0}, y_{0}\right)\left(x-x_{0}\right)^{2}+f_{x y}\left(x_{0}, y_{0}\right)\left(x-x_{0}\right)\left(y-y_{0}\right)+f_{yy}\left(x_{0}, y_{0}\right)\left(y-y_{0}\right)^{2}
用这样的符号写起来就很啰嗦,通常人们就会vectorize这样的写法:
Q(X)=f\left(X_{0}\right)+\nabla f\left(X_{0}\right)\left(X-X_{0}\right)+\frac{1}{2}\left(X-X_{0}\right)^{T} H_{f}\left(X_{0}\right)\left(X-X_{0}\right)

其中:
\nabla f=\left[ \begin{array}{c}{\frac{\partial f}{\partial x_{1}}} \\ {\frac{\partial f}{\partial x_{2}}} \\…\\ {\frac{\partial f}{\partial x_{N}}}\end{array}\right]

H_f = \nabla^2{f}=\left[ \begin{array}{cccc}{\frac{\partial^{2} f}{\partial x_{1}^{2}}} & {\frac{\partial^{2} f}{\partial x_{1} \partial x_{2}}} & {\cdots} & {\frac{\partial^{2} f}{\partial x_{1} \partial x_{N}}} \\ {\frac{\partial^{2} f}{\partial x_{2} \partial x_{1}}} & {\frac{\partial^{2} f}{\partial x_{2}^{2}}} & {\dots} & {\frac{\partial^{2} f}{\partial x_{2} \partial x_{N}}} \\ {\vdots} & {\vdots} & {\ddots} & {\vdots} \\ {\frac{\partial^{2} f}{\partial x_{N} \partial x_{1}}} & {\frac{\partial^{2} f}{\partial x_{N} \partial x_{2}}} & {\cdots} & {\frac{\partial^{2} f}{\partial x_{N}^{2}}}\end{array}\right]

这里H_f(X_0)代表的是fX=X_0取值的Hessian Matrix

于是如果vectorize牛顿法求极值,就让Q^{\prime}(X) = 0, 即
Q^{\prime}(X) = \nabla f\left(X_{k}\right)+ H^{-1}_{f}\left(X_{k}\right)\left(X-X_{k}\right) = 0
整理可得迭代式:
X_{k+1}=X_{k}-H^{-1}_{k} \nabla f\left(X_{k}\right)


ref:

Comments

Popular posts from this blog

Malware Report: iauzzy.exe

Malware Report: withme.exe

机器学习系统 UW CSE 599W: Systems for ML 笔记 (上篇)