梯度下降的问题

%matplotlib inline
import gluonbook as gb
import math
from mxnet import nd
import numpy as np

eta = 0.4

def f_2d(x1,x2):
    return 0.1*x1**2 + 2*x2**2

def gd_2d(x1,x2,s1,s2):
    return (x1-eta*0.2*x1,x2-eta*4*x2,0,0)

def train_2d(trainer):
    x1,x2,s1,s2 = -5,-2,0,0
    results = [(x1,x2)]
    for i in range(20):
        x1,x2,s1,s2 = trainer(x1,x2,s1,s2)
        results.append((x1,x2))
    print('epoch %d,x1 %f,x2 %f' % (i+1,x1,x2))
    return results

def show_trace_2d(f,results):
    gb.plt.plot(*zip(*results),'-o',color='#ff7f0e')
    x1,x2 = np.meshgrid(np.arange(-5.5,1.0,0.1),np.arange(-3.0,1.0,0.1))
    gb.plt.contour(x1,x2,f(x1,x2),colors='#1f77b4')
    gb.plt.xlabel('x1')
    gb.plt.ylabel('x2')

show_trace_2d(f_2d,train_2d(gd_2d))

eta = 0.6
show_trace_2d(f_2d,train_2d(gd_2d))

可以看到,x2 比 x1 的斜率的绝对值更大。

给定学习率,迭代自变量时会使自变量在竖直方向比水平方向移动幅度更大。那么我们需要一个较小的学习率从而避免自变量在竖直方向上越过目标函数最优解。然而,这样又会造成自变量在水平方向上朝着最优解移动变慢。

调大学习率,竖直方向的自变量,不断越过最优解,并发散。

原文地址:https://www.cnblogs.com/TreeDream/p/10083037.html