[CNN]卷积神经⽹络中featuremap和卷积核个数的概念解释feature map(下图红线标出) 即:该层卷积核的个数,有多少个卷积核,经过卷积就会产⽣多少个feature map,也就是下图中 `⾖腐⽪⼉`的层数、同时也是下图`⾖腐块`的深度(宽度)!!这个宽度可以⼿动指定,⼀般⽹络越深的地⽅这个值越⼤,因为随着⽹络的加人民警察节
深,feature map的长宽尺⼨缩⼩,本卷积层的每个map提取的特征越具有代表性(精华部分),所以后⼀层卷积层需要增加feature map 的数量,才能更充分的提取出前⼀层的特征,⼀般是成倍增加(不过具体论⽂会根据实验情况具体设置)!
PS:关于多层⽹络卷积核的channel问题:
如果上⼀层输出64个featuremap ,下⼀层的filter 的channel 就会变为64(必须这样),⼀个filter做卷积的话将会在64个featuremap组成的64channel上做,如果有128个filter,将再次⽣成128个featuremap,⽽不是128*64:
也就是在多层卷积⽹络中:下⼀层的filter的channel数= 上⼀层的featuremap数(kernel数量),如果不相等就没办法继续做卷积了。我们知道随着⽹络的加深,filter卷积核(是三维的:长、宽、深channel,不算batch)将会越来越深,或者说这个卷积核越来越细长,观察下图,也就直观上能够理解,为什么越深⽹络基本上卷积核数量会设置的越⼤,因为这么细长的卷积核做⼀次卷积才⽣成⼀个很⼩的featurema
p ,是⽆法提取出⾜够的特征的
代码:
如何做好成本管控感恩节哪天以tensorflow的 API 为例:
input,
filter,
学代会贺信strides,
凤的部首padding,
u_cudnn_on_gpu=True,
data_format='NHWC',
dilations=[1, 1, 1, 1],
name=None
友情
)
filter的维度为:[filter_height, filter_width, in_channels, out_channels],out_channels即为featuremap数量
第⼀层、⼆层卷积核分别为W1,W2,则:
形容困的成语
# W1 : [4, 4, 3, 8]
# W2 : [2, 2, 8, 16] 其中W2[2] = W1[3]
>手工剪纸教程简单图片