![人工智能数学基础](https://wfqqreader-1252317822.image.myqcloud.com/cover/67/38507067/b_38507067.jpg)
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人
3.6 实验:梯度下降法[8-9]
3.6.1 实验目的
(1)掌握Pandas、SciPy、Matplotlib、Sklearn等模块的使用。
(2)掌握Python自定义函数。
(3)掌握梯度下降法,为理解神经网络打基础。
(4)运行程序,看到结果。
3.6.2 实验要求
(1)了解Python常用程序包的使用。
(2)了解Python数组的使用。
(3)理解迭代计算相关的源码。
(4)用代码实现梯度下降法。
3.6.3 实验原理
多元线性回归是利用线性回归方程的最小平方函数对多个自变量和因变量之间的关系进行建模的一种回归分析。线性回归方程中因变量和自变量之间是线性关系。
已知数据集,而
有
共m个自变量,设线性回归方程为
![img](https://epubservercos.yuewen.com/10291D/20266983808220206/epubprivate/OEBPS/Images/txt003_584.jpg?sign=1738890086-2Sn1WZM1O6LsIKniF7oxlGhRT5L3nWub-0-969cc1f9674b03d6c378421e2bc60f54)
其中,,后面出现的
也包含
。为了得到目标线性方程,只需要确定方程中的系数
。同时,为了评估所选定的系数
的效果,通常情况下,使用一个损失函数来评估
函数的好坏,本实验采用均方误差来表示:
![img](https://epubservercos.yuewen.com/10291D/20266983808220206/epubprivate/OEBPS/Images/txt003_591.jpg?sign=1738890086-V6wMTFENWRO0qJKWcgZ98damoU9MiHvu-0-26119fc4ec3832956f49b20e89fb6786)
(3-10)
求式(3-10)的极小值的方法主要有两种:最小二乘法和梯度下降法。其中,梯度下降法是一种迭代方法,其利用梯度调整,使得
取的值越来越小。其更新公式为
![img](https://epubservercos.yuewen.com/10291D/20266983808220206/epubprivate/OEBPS/Images/txt003_594.jpg?sign=1738890086-ZbLPNJbgr5ThwjdhPx5PsZXVQ9wsP80Q-0-4d68add1c59fdf1e58e745521e57b3eb)
(3-11)
其中,为学习率。
下面将构造数据,采用梯度下降法迭代计算,并进行预测。
3.6.4 实验步骤
1.构造数据
令,
在0~9均匀采样,
在4~13均匀采样,并生成相应的
值。具体程序如下:
![img](https://epubservercos.yuewen.com/10291D/20266983808220206/epubprivate/OEBPS/Images/txt003_600.jpg?sign=1738890086-S1nBHX6vVJPz7BlFKS3d1qOIjXhTCWUi-0-db0bc411f8b23923c6064b917a30ce18)
2.梯度下降法
使用梯度下降法迭代计算的程序如下:
![img](https://epubservercos.yuewen.com/10291D/20266983808220206/epubprivate/OEBPS/Images/txt003_601.jpg?sign=1738890086-17ESMVgUXLQnCKcm9hQLGOEdhKmGpAKb-0-cd3f737a390c9b9e162daae1a1854521)
![img](https://epubservercos.yuewen.com/10291D/20266983808220206/epubprivate/OEBPS/Images/txt003_602.jpg?sign=1738890086-wCG23Nl1v7182U6DPcda87zONRB8R7p8-0-0cd91886c2509142e85813e8fc233f99)
![img](https://epubservercos.yuewen.com/10291D/20266983808220206/epubprivate/OEBPS/Images/txt003_603.jpg?sign=1738890086-582tViTh7xVKYjB9HiTnOMUIfD5zituA-0-431c372b709944729c5642b37c3ca632)
3.预测
![img](https://epubservercos.yuewen.com/10291D/20266983808220206/epubprivate/OEBPS/Images/txt003_604.jpg?sign=1738890086-nFk90PWf1M82tAcWI5xdbESLx3sRIqIY-0-2023de259de1ed465c1b639327bb0e11)
4.主函数
![img](https://epubservercos.yuewen.com/10291D/20266983808220206/epubprivate/OEBPS/Images/txt003_605.jpg?sign=1738890086-PNx3c6Hx0wDm4rySNqncN6VTi0ueVlEQ-0-23e86a2090b22419650fbe58d95c098d)
3.6.5 实验结果
程序运行结果如下:
![img](https://epubservercos.yuewen.com/10291D/20266983808220206/epubprivate/OEBPS/Images/txt003_606.jpg?sign=1738890086-3zFuQ2gythdnC79EJdjsvUdUAZcQZa7K-0-a578790a66e892e2c9b3272a62d0f205)
迭代次数与损失精度的关系如图3-9所示。
![img](https://epubservercos.yuewen.com/10291D/20266983808220206/epubprivate/OEBPS/Images/txt003_607.jpg?sign=1738890086-Zq1RFjqN2WzwfdgAMZgf0rqRlt9ANPfo-0-6f473eeecce8f377bf0fdbad3456a8ec)
图3-9 迭代次数与损失精度的关系