![TensorFlow知识图谱实战](https://wfqqreader-1252317822.image.myqcloud.com/cover/115/44510115/b_44510115.jpg)
3.2.3 最小二乘法的梯度下降算法及其Python实现
下面介绍一下如何使用梯度下降算法计算最小二乘法。从前面的介绍可以看到,任何一个需要进行梯度下降的函数可以被比作一座山,而梯度下降的目标就是找到这座山的底部,也就是函数的最小值。根据之前道士下山的场景,最快的下山方式就是找到最陡峭的山路,然后沿着这条山路走下去,直到下一个观望点。之后在下一个观望点重复这个过程,继续寻找最陡峭的山路,直到山脚。
在实现这个过程去求解最小二乘法的最小值之前,先介绍部分需要读者掌握的数学原理。
1.微分
高等数学中对函数微分的解释有很多,最主要的有两种:
- 函数曲线上某点切线的斜率。
- 函数的变化率。
对于一个二元微分的计算如下所示。
![](https://epubservercos.yuewen.com/281CEB/23721624209516806/epubprivate/OEBPS/Images/Figure-P77_8404.jpg?sign=1738881176-Kl2cp9BaLYoyqXVYHm3t7VtXjtvjs86a-0-8d10ff61da741d7e79dfbbc0f4e4fd68)
2.梯度
所谓的梯度就是微分的一般形式,对于多元微分来说则是各个变量的变化率总和,例如:
![](https://epubservercos.yuewen.com/281CEB/23721624209516806/epubprivate/OEBPS/Images/Figure-P77_8405.jpg?sign=1738881176-RUJDskQzkM13FyyZnDdNQbxVq7lEDcnG-0-9e0b1bc4f5adc63d51ef411883267efb)
可以看到,求解的梯度值是分别对每个变量进行微分计算,之后用逗号隔开。这里用中括号[]将每个变量的微分值包裹在一起,形成一个三维向量,因此可以将微分计算后的梯度认为是一个向量。
在多元函数中,梯度是一个向量,而向量具有方向性,梯度的方向指出了函数在给定点上上升最快的方向,如图3.9所示。将这个与上面道士下山的过程联系在一起,如果需要到达山底,则需要在每一个观察点寻找梯度最陡峭的地方。梯度计算的值是在当前点上升最快的方向,那么反方向则是给定点下降最快的方向。梯度的计算就是得出这个值的具体向量值。
![](https://epubservercos.yuewen.com/281CEB/23721624209516806/epubprivate/OEBPS/Images/Figure-P78_4925.jpg?sign=1738881176-hshzIUyd3ZUKhPRz7sRLIP3uZqIqMw1R-0-9be203d09239194a35e720c75848fd38)
图3.9 梯度的方向性
3.梯度下降的数学计算
前面给出了梯度下降的公式,接着对其进行变形:
![](https://epubservercos.yuewen.com/281CEB/23721624209516806/epubprivate/OEBPS/Images/Figure-P78_8406.jpg?sign=1738881176-ZcK3f9juefCTfrJT5n5zwXjTVrnshIgH-0-80d5204de69419eec6fb899cba086e10)
此公式中的参数含义如下:
是关于参数
的函数,假设当前点为
,如果需要找到这个函数的最小值,也就是山底,那么首先需要确定行进的方向,也就是梯度计算的反方向,之后走
的步长,之后到达下一个观察点。
的意义在上一节已经介绍,是学习率或者步长,使用
来控制每一步走的距离。
过小会造成拟合时间过长;
过大会造成下降幅度太大,从而错过最低点,如图3.10所示。
![](https://epubservercos.yuewen.com/281CEB/23721624209516806/epubprivate/OEBPS/Images/Figure-P78_4926.jpg?sign=1738881176-aiw4P5TnwqYPmZZt9tmSiZWkZttDW8Pa-0-cf1176e77f88887c0826972cf633893d)
图3.10 学习率太小(左)与学习率太大(右)
需要注意的是,地图下降公式中求出的是斜率最大值,也就是梯度上升最大的方向,而这里所需要的是梯度下降最大的方向,因此在
前加一个负号。下面用一个例子演示梯度下降法的计算。
假设这里的公式为:
![](https://epubservercos.yuewen.com/281CEB/23721624209516806/epubprivate/OEBPS/Images/Figure-P79_8437.jpg?sign=1738881176-UyaJrNBN6kqGwalTcwqsIR8CZLK0XItP-0-5e41b828ed3986051c0d580b43d39f2c)
此时的微分公式为:
![](https://epubservercos.yuewen.com/281CEB/23721624209516806/epubprivate/OEBPS/Images/Figure-P79_8439.jpg?sign=1738881176-jwI9yrqnKppBg7AMPrHnmUwhIcFaxlXi-0-44aaec1731c30e1b834095131333c40b)
设第一个值,
,则根据梯度下降公式可得:
![](https://epubservercos.yuewen.com/281CEB/23721624209516806/epubprivate/OEBPS/Images/Figure-P79_8441.jpg?sign=1738881176-OUF3I7IhAkNJmVsKKZRsotwZr1dNQljV-0-5379c6941222a43fb4f09b0416f79e80)
这样依次经过运算即可得到的最小值,也就是“山底”,如图3.11所示。
![](https://epubservercos.yuewen.com/281CEB/23721624209516806/epubprivate/OEBPS/Images/Figure-P79_4934.jpg?sign=1738881176-8tMfNfH3kwLf1kE4IcjgwFQi6HLcRx0D-0-3bf3aa81ba8a5a05c2e57135c1dfac4f)
图3.11 梯度下降法的计算
实现程序如下所示。
【程序3-3】
![](https://epubservercos.yuewen.com/281CEB/23721624209516806/epubprivate/OEBPS/Images/Figure-P79_8451.jpg?sign=1738881176-SiStTITcviHSPcu4HAY0dsNdRkyELLvn-0-3984e2ca82c0c83d7aff442f1a6ed5a1)
多变量的梯度下降方法和前文所述的多元微分求导类似。例如,一个二元函数形式如下:
![](https://epubservercos.yuewen.com/281CEB/23721624209516806/epubprivate/OEBPS/Images/Figure-P79_8453.jpg?sign=1738881176-4TB1g774KVG4cJoCg810UNwdY4cBc52K-0-03047069ed06cb55c2c316c4330c99db)
此时对其的梯度微分为:
![](https://epubservercos.yuewen.com/281CEB/23721624209516806/epubprivate/OEBPS/Images/Figure-P80_8454.jpg?sign=1738881176-gYGsAHgTG5ZSnjC0ynoxZ1kxbxnGuKaK-0-627df4e6a189e26543455f7cd683d3e4)
此时将设置:
![](https://epubservercos.yuewen.com/281CEB/23721624209516806/epubprivate/OEBPS/Images/Figure-P80_8456.jpg?sign=1738881176-g7v1k03lQwhIbXXCCxdenhqzrVRQduZC-0-92d50a9dc16d292e7a2c700bb634c85c)
则依次计算的结果如下:
![](https://epubservercos.yuewen.com/281CEB/23721624209516806/epubprivate/OEBPS/Images/Figure-P80_8458.jpg?sign=1738881176-3RVmHqEGmqgjpfJppA0YaWL3L9XFPmo7-0-cace640ba582024fd113d7cfa0e81ef7)
剩下的计算请读者自行完成。
如果把二元函数的函数采用图像的方式展示出来,那么可以很明显地看到梯度下降的每个“观察点”坐标,如图3.12所示。
![](https://epubservercos.yuewen.com/281CEB/23721624209516806/epubprivate/OEBPS/Images/Figure-P80_8459.jpg?sign=1738881176-Jmnp8mT3K3Vm3YldRzJIXUZor19imgQI-0-c8b8c0765f006b532667c3f8a57a681b)
图3.12 梯度下降的可视化展示
4.使用梯度下降法求解最小二乘法
下面是本节的实战部分,使用梯度下降算法计算最小二乘法。假设最小二乘法的公式如下:
![](https://epubservercos.yuewen.com/281CEB/23721624209516806/epubprivate/OEBPS/Images/Figure-P80_8461.jpg?sign=1738881176-agFdQOJBB3RNY2beDamG33LHO4YoSTQB-0-5bc3348cc5d002884b6cbc8764b39027)
参数解释如下:
- m:是数据点总数。
- 1/2:是一个常量。这样是为了在求梯度的时候将二次方微分后的结果与1/2抵消,也就没有多余的常数系数了,方便后续的计算,同时不会对结果有什么影响。
- y:是数据集中每个点的真实y坐标的值。
:为预测函数,形式如下:
![](https://epubservercos.yuewen.com/281CEB/23721624209516806/epubprivate/OEBPS/Images/Figure-P81_8472.jpg?sign=1738881176-YvOdmRAmrAdvmqzwtWdazzQPwwu0i4Yk-0-b1283e149666ed823e3ca46d32a8799d)
根据每个输入x,有一个经过参数计算后的预测值输出。
的Python实现如下所示:
h_pred = np.dot(x,theta)
其中,x是输入的维度为[-1,2]的二维向量,-1的意思是维度不定。这里使用了一个技巧,即将的公式转化成矩阵相乘的形式,而theta是一个[2,1]维度的二维向量。
依照最小二乘法实现的Python为:
![](https://epubservercos.yuewen.com/281CEB/23721624209516806/epubprivate/OEBPS/Images/Figure-P81_8481.jpg?sign=1738881176-iNS24UKSfYAGJZAj5j8EiPzZ0rkOYb7g-0-7b3a38d695aa2e1b43089ff95602c22c)
这里j_theta的实现同样是将原始公式转化成矩阵计算,即:
![](https://epubservercos.yuewen.com/281CEB/23721624209516806/epubprivate/OEBPS/Images/Figure-P81_8483.jpg?sign=1738881176-iFN5Bfz9bRV4lvMJeFLM7CB0n4nyfFDf-0-547316e22196106d8ea8aebbd9057dfc)
下面分析一下最小二乘法公式。要求
的梯度,则需要对其中涉及的两个参数
和
进行微分:
![](https://epubservercos.yuewen.com/281CEB/23721624209516806/epubprivate/OEBPS/Images/Figure-P81_8485.jpg?sign=1738881176-ejQfeqpogLtcBmFb8MVjjpQC5Nj2kCnW-0-93272074997ed0d4aa2007f4b2b18fe0)
下面分别对两个参数的求导公式进行求导:
![](https://epubservercos.yuewen.com/281CEB/23721624209516806/epubprivate/OEBPS/Images/Figure-P81_8342.jpg?sign=1738881176-DUn3OHyVD8YRGV1ljiWnS67xOs5aYIME-0-296ee52694cf526ce3e90eb8e2c9d63c)
将分开求导的参数合并可得新的公式:
![](https://epubservercos.yuewen.com/281CEB/23721624209516806/epubprivate/OEBPS/Images/Figure-P81_8344.jpg?sign=1738881176-BKBAleMia455rPJIcPlw2SN0zt6wEltd-0-197329849bb981e5eb45bb989e35a8f3)
公式最右边的常数1可以去掉,即:
![](https://epubservercos.yuewen.com/281CEB/23721624209516806/epubprivate/OEBPS/Images/Figure-P81_8497.jpg?sign=1738881176-6KGXVFSIWVTnXRLaAFu5EliDBTbia17i-0-1d4618de7305459419cef81e58bc6a2e)
依旧采用矩阵相乘的方式,则使用矩阵相乘表示的公式为:
![](https://epubservercos.yuewen.com/281CEB/23721624209516806/epubprivate/OEBPS/Images/Figure-P81_8499.jpg?sign=1738881176-vJxfhVUZ52V5YG9bQfDrXhCCNjKGmbW5-0-26de2ec095543d71c5fd7ae402c65ed1)
这里已经转化为矩阵相乘的表示形式,使用Python表示如下:
![](https://epubservercos.yuewen.com/281CEB/23721624209516806/epubprivate/OEBPS/Images/Figure-P81_8503.jpg?sign=1738881176-5iD68N5yeWY0Lk6DfqST8DXCW1caeaYE-0-cbf86b34aa00d5deefd5275a023b5292)
其中,np.dot(np.transpose(X), h_pred)。如果对此理解有难度,可以将公式使用逐个x值的形式列出来,这里就不罗列了。
最后是梯度下降的Python实现,代码如下:
![](https://epubservercos.yuewen.com/281CEB/23721624209516806/epubprivate/OEBPS/Images/Figure-P82_8507.jpg?sign=1738881176-OBMPuX4Zu3cCzYkcV8kMyQ3CrJUjfW9J-0-4062e689edef7d418d23f5e422a0137f)
或者使用如下代码:
![](https://epubservercos.yuewen.com/281CEB/23721624209516806/epubprivate/OEBPS/Images/Figure-P82_8509.jpg?sign=1738881176-0s4rGaBlAyTKZdwgOMtzveIyVWt1dB3A-0-8d506a157a1176f35d4de0cc50eda5d8)
这两组程序段的区别在于第一个是固定循环次数,可能会造成欠下降或者过下降,而第二个代码段使用的是数值判定,可以设定阈值或者停止条件。
全部代码如下所示。
【程序3-4】
![](https://epubservercos.yuewen.com/281CEB/23721624209516806/epubprivate/OEBPS/Images/Figure-P82_8511.jpg?sign=1738881176-jEMXG7NqySbj8uROa7GMkBXnmu7UKchD-0-a490fcd1677ee374e8d9080f4f7854a3)
打印结果和拟合曲线请读者自行完成。
现在回到道士下山的问题中,这个下山的道士实际上代表的是反向传播算法,而要寻找的下山路径代表着算法中一直在寻找的参数,山上当前点最陡峭的方向实际上是代价函数在这一点的梯度方向,场景中观察最陡峭方向所用的工具就是微分。