分类与回归及网络搭建+神经网络简介(学习记录与分享) 您所在的位置:网站首页 类别和分类的区别在于什么 分类与回归及网络搭建+神经网络简介(学习记录与分享)

分类与回归及网络搭建+神经网络简介(学习记录与分享)

2023-09-25 00:25| 来源: 网络整理| 查看: 265

分类与回归问题的区别

简单来讲分类与回归的问题区别在于输出变量的类型,

即定量输出称为回归,或者说是连续变量预测;(对房价预测,对天气温度预测)

定性输出称为分类,或者说是离散变量预测。(无人驾驶向左/右,天气的状况) 

但总而言之,分类问题建立在回归问题的基础上且两者都能够利用函数模型来解决一些问题

分类模型 

 先建立模型 设置学习率 再进行训练

进行多次训练后,得到分类。回归函数模型可以借此绘制一些离散的点的最优函数模型。

超参数中学习率介绍

 学习率能使神经网络中的预测误差比较小

用学长教我的一种方法来简单理解学习率在实际中的运用

 将学习率比作人下山的步伐,要使预测误差变得最小时,相当于人走到海拔最低的一个点,步伐过大就可能始终找不到最低点,从而达不到最优的目标函数

用橙色代表学习率比较大时,蓝色为较小值,显而易见当接近目标函数时,学习率调小后 更易达到最小的损失函数。因此在调试函数时可以先将学习率调大,接近目标时再将其调小。

网络搭建介绍

1.全连接层

 全连接顾名思义,将每一个结点与上一层所有的结点相连接

可以用理想对象进行类比

输出的结果为理想对象,上一层的结点分别为你的要求,例如外貌,心性,经济情况

这类的上层结点为与之相关的具体要求,身高、颜值、家庭环境等等...你将这些要求赋值,最终得到外貌、心性、经济情况的分值,再进行赋权,得到最终的分数,因此判断能否达到你的理想对象的要求。

每一层的结点都与上一层的每个结点有关,那么身高和心性有关吗?当然有关,它们的关系为零。

2.池化层与卷积层

池化层与卷积层的目的都是提取特征,对输入量不断简化,两者都具有同一个特性,有几个通道就有几个输出。

3.激活函数的目的

根据池化层与卷积层的简介,能得出池化层和卷积层通道与输出为线性关系,因此在提取特征后可能会忽略一些值,激活函数就将原本的线性函数变为曲线。

4.BN操作

 当sigmoid输入值趋于正无穷或负无穷时,梯度会趋近零,就会达到梯度饱和

用一种比喻来形容,当你用1N的力来触碰计算机,它会显示你摸了它,因为梯度饱和的影响,你用100N的力,计算机同样显示你摸了它,在这种情况下,所获得的结果是非常离谱的。

 但通过BN操作可以将函数归一化,使得这种现象得到有效处理。

1.神经网络是函数

有人可能会认为神经网络是池化层,全连接层,激活函数等等元素构成。但学长告诉我们,神经网络本质就是函数。

所以下次可以在不懂的朋友面前装一手,问他什么是神经网络啊,你可以告诉他,神经网络就是函数(doge)

2.介绍一种相关神经网络的运用

将计算机进行训练让其能够做到基本的识别数字功能

首先输入大量样本,例如

1)部分代码 class Net(nn.Module): def __init__(self): super(Net, self).__init__() # xw+b 全连接层 self.fc1 = nn.Linear(28*28, 256) self.fc2 = nn.Linear(256, 64) self.fc3 = nn.Linear(64, 10) def forward(self, x): #前向传播 # x: [b, 1, 28, 28] # h1 = relu(xw1+b1) x = F.relu(self.fc1(x)) # h2 = relu(h1w2+b2) x = F.relu(self.fc2(x)) # h3 = h2w3+b3 x = self.fc3(x) return x

函数nn.Linear()是用于设置网络中的全连接层的

而下文的forward是表示前向传播,是用于计算损失函数的,其本质为

 这边设置为每十次显示一次计算结果,重复计算三次,得结果

 得到最优函数后得到图像



【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有