基于jupyter notebook的python编程 您所在的位置:网站首页 梯度下降算法的应用 基于jupyter notebook的python编程

基于jupyter notebook的python编程

2024-02-03 22:52| 来源: 网络整理| 查看: 265

基于jupyter notebook的python编程-----利用梯度下降算法求解多元线性回归方程,并与最小二乘法求解进行精度对比目录 一、梯度下降算法的基本原理1、梯度下降算法的基本原理 二、题目、表格数据、以及python环境搭建1、多元线性回归分析求解题目2、准备的多元线性回归方程的变量的表格数据3、搭建python环境 三、梯度下降算法求解多元线性回归的方程的python代码实现1、导入基本库、数据,并为变量赋值2、定义系数初始值以及学习率和迭代次数3、定义最小二乘法函数-损失函数(代价函数)4、定义梯度下降算法求解线性回归方程系数python函数5、代用函数,进行系数求解,并打印6、画出回归方程线性拟合图7、题目的整体python代码8、运行结果如下所示: 四、最小二乘法法求解多元线性回归方程的python代码实现1、完整的python代码如下:2、运行结果如下 六、两种方法求解多元线性回归方程的精度对比1、对运行结果的对比 梯度下降算法是迭代法的一种,可以用于求解最小二乘问题(线性和非线性都可以),在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(Gradient Descent)是最常采用的方法之一。 在机器学习中,基于基本的梯度下降法发展了两种梯度下降方法,分别为随机梯度下降法和批量梯度下降法。 所以,本次博客,林君学长将带大家了解,如何通过梯度下降算法,求解回归曲线的方程,并与最小二乘法求解方程的精度进行对比

一、梯度下降算法的基本原理 1、梯度下降算法的基本原理

1)、梯度下降算法的基本原理就是通过多次迭代,求得与精度值匹配的最后结果,他的迭代公式如下所示: 在这里插入图片描述 在这里插入图片描述 2)、梯度下降算法的特点

梯度下降法是一个最优化算法,通常也称为最速下降法。最速下降法是求解无约束优化问题最简单和最古老的方法之一,虽然现在已经不具有实用性,但是许多有效算法都是以它为基础进行改进和修正而得到的。最速下降法是用负梯度方向为搜索方向的,最速下降法越接近目标值,步长越小,前进越慢。

二、题目、表格数据、以及python环境搭建 1、多元线性回归分析求解题目

1)、多元线性回归的题目描述如下: 为求得某个地区的商品店的月营业额是与店铺的面积相关性大,还是与该店距离车站距离的相关性大,需要我们以店铺面积、距离车站的距离、以及月营业额建立线性回归方程,并求解该方程,和相关系数: 在这里插入图片描述

2、准备的多元线性回归方程的变量的表格数据

1)、该题目所用的数据如下所示: 在这里插入图片描述 在这里插入图片描述 从左到右,一次为店铺面积、距离车站距离和月营业额!

3、搭建python环境

1)、打开Windows终端命令行,输入jupyter notebook,打开我们的jupyter工具,如下所示: 在这里插入图片描述 2)、在jupyter的web网页中创建python文件,如下所示: 在这里插入图片描述 3)、现在就可以在jupyter的代码行里面输入我们的代码啦!

三、梯度下降算法求解多元线性回归的方程的python代码实现 1、导入基本库、数据,并为变量赋值 import numpy as np from matplotlib import pyplot as plt from mpl_toolkits.mplot3d import Axes3D data=np.genfromtxt('D:/面积距离车站数据.csv',delimiter=',') x_data=data[:,:-1] y_data=data[:,2] 2、定义系数初始值以及学习率和迭代次数 #定义学习率、斜率、截据 #设方程为y=theta1*x1+theta2*x2+theta0 lr=0.00001 theta0=0 theta1=0 theta2=0 #定义最大迭代次数,因为梯度下降法是在不断迭代更新k与b epochs=10000 3、定义最小二乘法函数-损失函数(代价函数) #定义最小二乘法函数-损失函数(代价函数) def compute_error(theta0,theta1,theta2,x_data,y_data): totalerror=0 for i in range(0,len(x_data)):#定义一共有多少样本点 totalerror=totalerror+(y_data[i]-(theta1*x_data[i,0]+theta2*x_data[i,1]+theta0))**2 return totalerror/float(len(x_data))/2

通过代价方程,求解迭代过程中的错误率哦!直观看出求解误差

4、定义梯度下降算法求解线性回归方程系数python函数 #梯度下降算法求解参数 def gradient_descent_runner(x_data,y_data,theta0,theta1,theta2,lr,epochs): m=len(x_data) for i in range(epochs): theta0_grad=0 theta1_grad=0 theta2_grad=0 for j in range(0,m): theta0_grad-=(1/m)*(-(theta1*x_data[j,0]+theta2*x_data[j,1]+theta2)+y_data[j]) theta1_grad-=(1/m)*x_data[j,0]*(-(theta1*x_data[j,0]+theta2*x_data[j,1]+theta0)+y_data[j]) theta2_grad-=(1/m)*x_data[j,1]*(-(theta1*x_data[j,0]+theta2*x_data[j,1]+theta0)+y_data[j]) theta0=theta0-lr*theta0_grad theta1=theta1-lr*theta1_grad theta2=theta2-lr*theta2_grad return theta0,theta1,theta2

该函数的主要功能就是利用梯度下降算法进行系数的求解,通过多次的迭代,完成近视值的求解!

5、代用函数,进行系数求解,并打印 #进行迭代求解 theta0,theta1,theta2=gradient_descent_runner(x_data,y_data,theta0,theta1,theta2,lr,epochs) print('结果:迭代次数:{0} 学习率:{1}之后 a0={2},a1={3},a2={4},代价函数为{5}'.format(epochs,lr,theta0,theta1,theta2,compute_error(theta0,theta1,theta2,x_data,y_data))) print("多元线性回归方程为:y=",theta1,"X1+",theta2,"X2+",theta0) 6、画出回归方程线性拟合图 #画图 ax=plt.figure().add_subplot(111,projection='3d') ax.scatter(x_data[:,0],x_data[:,1],y_data,c='r',marker='o') x0=x_data[:,0] x1=x_data[:,1] #生成网格矩阵 x0,x1=np.meshgrid(x0,x1) z=theta0+theta1*x0+theta2*x1 #画3d图 ax.plot_surface(x0,x1,z) ax.set_xlabel('area') ax.set_ylabel('distance') ax.set_zlabel("Monthly turnover") plt.show() 7、题目的整体python代码 import numpy as np from matplotlib import pyplot as plt from mpl_toolkits.mplot3d import Axes3D data=np.genfromtxt('D:/面积距离车站数据.csv',delimiter=',') x_data=data[:,:-1] y_data=data[:,2] #定义学习率、斜率、截据 #设方程为y=theta1x1+theta2x2+theta0 lr=0.00001 theta0=0 theta1=0 theta2=0 #定义最大迭代次数,因为梯度下降法是在不断迭代更新k与b epochs=10000 #定义最小二乘法函数-损失函数(代价函数) def compute_error(theta0,theta1,theta2,x_data,y_data): totalerror=0 for i in range(0,len(x_data)):#定义一共有多少样本点 totalerror=totalerror+(y_data[i]-(theta1*x_data[i,0]+theta2*x_data[i,1]+theta0))**2 return totalerror/float(len(x_data))/2 #梯度下降算法求解参数 def gradient_descent_runner(x_data,y_data,theta0,theta1,theta2,lr,epochs): m=len(x_data) for i in range(epochs): theta0_grad=0 theta1_grad=0 theta2_grad=0 for j in range(0,m): theta0_grad-=(1/m)*(-(theta1*x_data[j,0]+theta2*x_data[j,1]+theta2)+y_data[j]) theta1_grad-=(1/m)*x_data[j,0]*(-(theta1*x_data[j,0]+theta2*x_data[j,1]+theta0)+y_data[j]) theta2_grad-=(1/m)*x_data[j,1]*(-(theta1*x_data[j,0]+theta2*x_data[j,1]+theta0)+y_data[j]) theta0=theta0-lr*theta0_grad theta1=theta1-lr*theta1_grad theta2=theta2-lr*theta2_grad return theta0,theta1,theta2 #进行迭代求解 theta0,theta1,theta2=gradient_descent_runner(x_data,y_data,theta0,theta1,theta2,lr,epochs) print('结果:迭代次数:{0} 学习率:{1}之后 a0={2},a1={3},a2={4},代价函数为{5}'.format(epochs,lr,theta0,theta1,theta2,compute_error(theta0,theta1,theta2,x_data,y_data))) print("多元线性回归方程为:y=",theta1,"X1+",theta2,"X2+",theta0) #画图 ax=plt.figure().add_subplot(111,projection='3d') ax.scatter(x_data[:,0],x_data[:,1],y_data,c='r',marker='o') x0=x_data[:,0] x1=x_data[:,1] #生成网格矩阵 x0,x1=np.meshgrid(x0,x1) z=theta0+theta1*x0+theta2*x1 #画3d图 ax.plot_surface(x0,x1,z) ax.set_xlabel('area') ax.set_ylabel('distance') ax.set_zlabel("Monthly turnover") plt.show() 8、运行结果如下所示:

在这里插入图片描述 通过梯度下降算法求解的系数可用通过代价方程看出误差哦,误差还是很大的,基本不是太精确,接下来,我们看一下通过最小二乘法求解的系数吧!

四、最小二乘法法求解多元线性回归方程的python代码实现

由于之前林君学长写过通过最小二乘法来求解多元线性回归方程的分析博客,并且给出了具体的分析,这里就只给出源码和运行结果,如果小伙伴对以下代码不理解的,请参考林君学长写的最小二乘法求解多元线性回归方程的博客哟! 博客链接如下: https://blog.csdn.net/qq_42451251/article/details/105019128

1、完整的python代码如下:

1)、通过矩阵模拟最小二乘法进行多元线性方程求解的完整代码如下:

#利用线性代数的矩阵模拟最小二乘法求解法求解多元线性回归方程的系数 import numpy as np import matplotlib.pyplot as plt import seaborn as sns import pandas as pd %matplotlib inline data = np.genfromtxt("D:/面积距离车站数据.csv",delimiter=",") X1=data[0:10,0]#自变量温度 X2=data[0:10,1]#因变量销售量 Y=data[0:10,2]#自变量温度 #将因变量赋值给矩阵Y1 Y1=np.array([Y]).T #为自变量系数矩阵X赋值 X11=np.array([X1]).T X22=np.array([X2]).T A=np.array([[1],[1],[1],[1],[1],[1],[1],[1],[1],[1]])#创建系数矩阵 B=np.hstack((A,X11))#将矩阵a与矩阵X11合并为矩阵b X=np.hstack((B,X22))#将矩阵b与矩阵X22合并为矩阵X #求矩阵X的转置矩阵 X_=X.T #求矩阵X与他的转置矩阵的X_的乘积 X_X=np.dot(X_,X) #求矩阵X与他的转置矩阵的X_的乘积的逆矩阵 X_X_=np.linalg.inv(X_X) #求解系数矩阵W,分别对应截距b、a1、和a2 W=np.dot(np.dot((X_X_),(X_)),Y1) b=W[0][0] a1=W[1][0] a2=W[2][0] print("系数a1=",a1) print("系数a2=",a2) print("截距为=",b) print("多元线性回归方程为:y=",a1,"X1+",a2,"X2+",b) #画出线性回归分析图 data1=pd.read_excel('D:\面积距离车站数据.xlsx') sns.pairplot(data1, x_vars=['area','distance'], y_vars='Y', height=3, aspect=0.8, kind='reg') plt.show() #求月销售量Y的和以及平均值y1 sumy=0#因变量的和 y1=0#因变量的平均值 for i in range(0,len(Y)): sumy=sumy+Y[i] y1=sumy/len(Y) #求月销售额y-他的平均值的和 y_y1=0#y-y1的值的和 for i in range(0,len(Y)): y_y1=y_y1+(Y[i]-y1) print("销售量-销售量平均值的和为:",y_y1) #求预测值sales1 sales1=[] for i in range(0,len(Y)): sales1.append(a1*X1[i]+a2*X2[i]+b) #求预测值的平均值y2 y2=0 sumy2=0 for i in range(len(sales1)): sumy2=sumy2+sales1[i] y2=sumy2/len(sales1) #求预测值-平均值的和y11_y2 y11_y2=0 for i in range(0,len(sales1)): y11_y2=y11_y2+(sales1[i]-y2) print("预测销售值-预测销售平均值的和为:",y11_y2) #求月销售额y-他的平均值的平方和 Syy=0#y-y1的值的平方和 for i in range(0,len(Y)): Syy=Syy+((Y[i]-y1)*(Y[i]-y1)) print("Syy=",Syy) #求y1-y1平均的平方和 Sy1y1=0 for i in range(0,len(sales1)): Sy1y1=Sy1y1+((sales1[i]-y2)*(sales1[i]-y2)) print("Sy1y1=",Sy1y1) #(y1-y1平均)*(y-y平均) Syy1=0 for i in range(0,len(sales1)): Syy1=Syy1+((Y[i]-y1)*(sales1[i]-y2)) print("Syy1=",Syy1) #求R R=Syy1/((Syy*Sy1y1)**0.5) R2=R*R print("判定系数R2=",R2) 2、运行结果如下

1)、运行结果如下: 在这里插入图片描述

六、两种方法求解多元线性回归方程的精度对比 1、对运行结果的对比

1)、梯度下降法的运行结果: 在这里插入图片描述 2)、最小二乘法求解对比: 在这里插入图片描述 3)、通过excel计算结果对比: 在这里插入图片描述

通过以上对比结果可以知道,最小二乘法求解线性回归方程的精度优于梯度下降算法,这也是梯度下降算法的确定,求解精度太低,求解还需要很多次的迭代,所以,现代的人工智能机器学习的深度算法基本已经放弃梯度下降算法的求解,需要多次计算,这对计算机资源来说是一种浪费哦!现代多用于矩阵的最小二乘法进行线性回归系数的求解哦!

以上就是本次博客的全部内容啦,希望通过对本次博客的阅读,小伙伴可以对人工智能机器学习的梯度下降算法有一定的理解哦,遇到问题的小伙伴记得评论区留言,林君学长看到会为大家进行解答的,这个学长不太冷! 陈一月的又一天编程岁月^ _ ^



【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有