【深度学习笔记】卷积的输入输出的通道、维度或尺寸变化过程 | 您所在的位置:网站首页 › 机核ann长什么样 › 【深度学习笔记】卷积的输入输出的通道、维度或尺寸变化过程 |
转载自 CNN中卷积层的计算细节
输入矩阵格式:四个维度,依次为:样本数、图像高度、图像宽度、图像通道数 输出矩阵格式:与输出矩阵的维度顺序和含义相同,但是后三个维度(图像高度、图像宽度、图像通道数)的尺寸发生变化。 权重矩阵(卷积核)格式:同样是四个维度,但维度的含义与上面两者都不同,为:卷积核高度、卷积核宽度、输入通道数、输出通道数(卷积核个数) 输入矩阵、权重矩阵、输出矩阵这三者之间的相互决定关系 卷积核的输入通道数(in depth)由输入矩阵的通道数所决定。(红色标注) 输出矩阵的通道数(out depth)由卷积核的输出通道数所决定。(绿色标注) 输出矩阵的高度和宽度(height, width)这两个维度的尺寸由输入矩阵、卷积核、扫描方式所共同决定。计算公式如下。(蓝色标注)
以 AlexNet 模型的第一个卷积层为例, 输入图片的尺寸统一为 227 x 227 x 3 (高度 x 宽度 x 颜色通道数),本层一共具有96个卷积核,每个卷积核的尺寸都是 11 x 11 x 3。已知 stride = 4, padding = 0,假设 batch_size = 256,则输出矩阵的高度/宽度为 (227 - 11) / 4 + 1 = 55![]() 后期 GoogLeNet、ResNet 等经典模型中普遍使用一个像素大小的卷积核作为降低参数复杂度的手段。 从下面的运算可以看到,其实 1 x 1 卷积没有什么神秘的,其作用就是将输入矩阵的通道数量缩减后输出(512 降为 32),并保持它在宽度和高度维度上的尺寸(227 x 227)。 原理是什么?卷积核的个数决定了输出的特征图的个数,也就是特征图的通道数,或者说是卷积后的输出的通道数,因此可以使用远小于原来的输入特征图通道数个1×1卷积核来压缩通道数。![]() 实际上,全连接层也可以被视为是一种极端情况的卷积层,其卷积核尺寸就是输入矩阵尺寸,因此输出矩阵的高度和宽度尺寸都是1。 |
CopyRight 2018-2019 实验室设备网 版权所有 |