[CNN]卷积神经网络中featuremap和卷积核个数的概念解释

更新时间:2023-07-31 20:41:57 阅读: 评论:0

[CNN]卷积神经⽹络中featuremap和卷积核个数的概念解释feature map(下图红线标出) 即:该层卷积核的个数,有多少个卷积核,经过卷积就会产⽣多少个feature map,也就是下图中 `⾖腐⽪⼉`的层数、同时也是下图`⾖腐块`的深度(宽度)!!这个宽度可以⼿动指定,⼀般⽹络越深的地⽅这个值越⼤,因为随着⽹络的加人民警察节
深,feature map的长宽尺⼨缩⼩,本卷积层的每个map提取的特征越具有代表性(精华部分),所以后⼀层卷积层需要增加feature map 的数量,才能更充分的提取出前⼀层的特征,⼀般是成倍增加(不过具体论⽂会根据实验情况具体设置)!
PS:关于多层⽹络卷积核的channel问题:
如果上⼀层输出64个featuremap ,下⼀层的filter 的channel 就会变为64(必须这样),⼀个filter做卷积的话将会在64个featuremap组成的64channel上做,如果有128个filter,将再次⽣成128个featuremap,⽽不是128*64:
也就是在多层卷积⽹络中:下⼀层的filter的channel数= 上⼀层的featuremap数(kernel数量),如果不相等就没办法继续做卷积了。我们知道随着⽹络的加深,filter卷积核(是三维的:长、宽、深channel,不算batch)将会越来越深,或者说这个卷积核越来越细长,观察下图,也就直观上能够理解,为什么越深⽹络基本上卷积核数量会设置的越⼤,因为这么细长的卷积核做⼀次卷积才⽣成⼀个很⼩的featurema
p ,是⽆法提取出⾜够的特征的
代码:
如何做好成本管控感恩节哪天以tensorflow的 API 为例:
input,
filter,
学代会贺信strides,
凤的部首padding,
u_cudnn_on_gpu=True,
data_format='NHWC',
dilations=[1, 1, 1, 1],
name=None
友情
)
filter的维度为:[filter_height, filter_width, in_channels, out_channels],out_channels即为featuremap数量
第⼀层、⼆层卷积核分别为W1,W2,则:
形容困的成语
# W1 : [4, 4, 3, 8]
# W2 : [2, 2, 8, 16]  其中W2[2] = W1[3]
>手工剪纸教程简单图片

本文发布于:2023-07-31 20:41:57,感谢您对本站的认可!

本文链接:https://www.wtabcd.cn/fanwen/fan/89/1103474.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:卷积   下图   设置   提取   特征   具有
相关文章
留言与评论(共有 0 条评论)
   
验证码:
推荐文章
排行榜
Copyright ©2019-2022 Comsenz Inc.Powered by © 专利检索| 网站地图