卷积神经网络结构

    技术2022-07-17  67

    人工智能几个常用卷积神经网络

    AlexNet全连接层1*1卷积核的作用池化层作用参数计算(也就是权重)创建卷积核时,卷积核个数放在第四维空间。也即,是一个整体代码中是按这种整体来看的。

    AlexNet

    卷积神将网络的计算公式为:

    N=(W-F+2P)/S+1

    其中N:输出大小

    W:输入大小

    F:卷积核大小

    P:填充值的大小

    S:步长大小

    链接: link. 总结一句话:卷积后下一输出层的深度与卷积核个数相同,输出层大小(即长宽)由上述公式计算,s,f均为卷积核的属性。

    全连接层

    即与用和原输入层大小、深度完全一致的卷积核进行卷积,形成11x的全连接层(即展开),其中x由卷积核的层数决定。(写代码时也可以直接展开为一维)

    1*1卷积核的作用

    不改变输入层的大小,但改变输入和输出的深度的不同,在复杂神经网络或者简化神经网络时,有特殊效果。

    池化层作用

    池化层不是卷积运算,只是为了在不失去特征的同时减小输出层,降低过拟合,使网络经量普世。

    参数计算(也就是权重)

    参数就是卷积核所有数字的个数加b的个数 我们只需要把每个filter的参数累加起来,当然,不要忘了加上bias。

    创建卷积核时,卷积核个数放在第四维空间。也即,是一个整体代码中是按这种整体来看的。

    tf.nn.conv2d()直接实现输入相应参数直接实现卷积运算,只不过其第一维可表示输入图片的张数,所以为四维。

    Processed: 0.008, SQL: 9