CNN与MLP之间的关系,优缺点 | 您所在的位置:网站首页 › 性能退化模型的缺点 › CNN与MLP之间的关系,优缺点 |
CNN的计算过程:
很多书或论文也将MLP和CNN区别开来,但是实际MLP只是CNN的一个特例,也就是说MLP本身也是CNN,以下为简要的论述。 MLP实际是1*1的卷积,n个卷积核就将原来的d维变为n维. 下图为MLP的计算过程(为了方便MLP的计算过程图权重W被拆开了实际为9x3的矩阵,而输入计算时应该先转置,输出也是需要转置,即 1x9 dot 9x3 = 1x3) 计算公式为(点号为点乘,dot) 上面我们可以看到,CNN和MLP计算过程实际对应数值标号是完全一致的,也就是说上两图MLP和CNN计算过程完全等价,可以互相转换。显然可以推导出,当CNN卷积核大小与输入大小相同时其计算过程等价于MLP,也就是说MLP等价于卷积核大小与每层输入大小相同的CNN(如输入图片为100x100,卷积核大小为100x100),所以MLP是CNN的一个特例。而卷积核大小与每层输入大小相同会直接丢失非常多的输入空间信息,所以MLP这种运行模式不适合图像这种空间信息丰富的数据。 所以理论上我们只需要研究CNN就可以了,当然相对而言MLP比CNN更简单,更容易研究 他们之间的差异: 一、MLP(Multilayer Perceptron) 多层感知机1、网络有很多隐层组成 2、每个神经元都和上一层中的所有节点连接 3、参数量大、训练难度大 4、会丢失像素间的空间信息,只接受向量输入 二、CNN(Convolutional Neural Network) 卷积神经网络1、局部稀疏连接,参数少 2、接受矩阵输入,利用像素间空间关系 3、可以引入池化、空洞卷积 MLP(多层感知机)只是CNN(卷积网络)的一个特例_u010165147的博客-CSDN博客_mlp层 MLP与CNN - 简书 |
CopyRight 2018-2019 实验室设备网 版权所有 |