https:///qq_27871973/article/details/82970640
https:///renhaofan/article/details/82721868
https:///ybdesire/article/details/80314925
https:///dcrmg/article/details/79222164
1.卷积核选用奇数*奇数的原因:
1)方便补零。设卷积核3*3,卷积操作前需要补零个数为2,可以在输入特征图的两侧各补一个零
2)奇数*奇数的卷积核由中心点,方便确定卷积核的位置
2.1*1卷积核的作用:
对输入特征图进行降维或者升维。
https:///chaipp0607/article/details/60868689
https://baike.baidu.com/item/%E5%8D%B7%E7%A7%AF%E6%A0%B8/3377590
1. CNN 可以看作是 DNN 的一种简化形式,即这里卷积核中的每一个权值就可以看成是 DNN 中的 ,且与 DNN 一样,会多一个参数偏置。
2.一个卷积核在与 Input 不同区域做卷积时,它的参数是固定不变的。放在 DNN 的框架中理解,就是对同一层 Layer 中的神经元而言,它们的 和 是相同的,只是所连接的节点在改变。因此在 CNN 里,这叫做 共享权值偏置。
3.在 CNN 中,卷积核可能是高维的。假如输入是 维的,那么一般 卷积核就会选择为 维,也就是与输入的 Depth 一致。
*4.最重要的一点,在 CNN 中,卷积核的权值不需要提前设计,而是跟 DNN 一样利用 GD 来优化,我们只需要初始化。
5.如上面所说,其实卷积核卷积后得到的会是原图的某些特征(如边缘信息),所以在 CNN 中,卷积核卷积得到的 Layer 称作特征图。
6.一般 CNN 中两层之间会含有多个卷积核,目的是学习出 Input 的不同特征,对应得到多个特征图。又由于卷积核中的参数是通过 GD 优化得到而非我们设定的,于是初始化就显得格外重要了。
变形卷积核、可分离卷积?卷积神经网络中十大拍案叫绝的操作:
https:///weixin_34268843/article/details/90326659
卷积神经网络中 每个卷积核与上一层的连接详解:
https:///qq_27597601/article/details/54927967
本文讲解了不同的卷积核的特点、卷积所需要的参数以及1*1卷积核的作用(降低维度,减少计算过程中的参数量)
1、降维。比如,一张500 * 500且厚度depth为100 的图片在20个filter上做1*1的卷积,那么结果的大小为500*500*20。
2、加入非线性。卷积层之后经过激励层,1*1的卷积在前一层的学习表示上添加了非线性激励,提升网络的表达能力;
3、增加模型深度。可以减少网络模型参数,增加网络层深度,一定程度上提升模型的表征能力。
1.计算卷积时,都是计算输入特征图的局颁布的加权和(在整个特征图上实现了权值共享,即:特征图的每一局部部分均采用相同的权值)
2.卷积核中的数值,即神经网络中所使用的权值,不需要人为设定,需要使用GD优化器优化,以对权值进行初始化
因篇幅问题不能全部显示,请点此查看更多更全内容