卷积神将网络的计算公式为:
N=(W-F+2P)/S+1
其中N:输出大小
W:输入大小
F:卷积核大小
P:填充值的大小
S:步长大小
链接: link. 总结一句话:卷积后下一输出层的深度与卷积核个数相同,输出层大小(即长宽)由上述公式计算,s,f均为卷积核的属性。
即与用和原输入层大小、深度完全一致的卷积核进行卷积,形成11x的全连接层(即展开),其中x由卷积核的层数决定。(写代码时也可以直接展开为一维)
不改变输入层的大小,但改变输入和输出的深度的不同,在复杂神经网络或者简化神经网络时,有特殊效果。
池化层不是卷积运算,只是为了在不失去特征的同时减小输出层,降低过拟合,使网络经量普世。
参数就是卷积核所有数字的个数加b的个数 我们只需要把每个filter的参数累加起来,当然,不要忘了加上bias。
tf.nn.conv2d()直接实现输入相应参数直接实现卷积运算,只不过其第一维可表示输入图片的张数,所以为四维。