据我所知,输入元组是从卷积块进入的。
因此,如果我们想改变 input_tuple 的形状,修改卷积就有意义。
为什么我们需要 include_top=False 并删除最后的全连接层?
另一方面,如果我们有不同数量的类,Keras 可以选择使用 no_of_classes 更改 softmax 层
我知道我是这里缺少一些东西的人。请帮我
示例:对于 Inception Resnet V2
input_shape:可选形状元组,仅在 include_top 时指定
为 False (否则输入形状必须为 (299, 299, 3) (其中
'channels_last' 数据格式)或 (3, 299, 299) (带有 'channels_first'
数据格式)。它应该正好有 3 个输入通道,以及宽度和
高度不得小于 139。 (150, 150, 3) 将是一
有效值。
include_top:是否包含顶部的全连接层
网络的。
https://keras.io/applications/#inceptionresnetv2 https://keras.io/applications/#inceptionresnetv2
这只是因为最后的全连接层只能采用固定大小的输入,这些输入先前已由输入形状和卷积层中的所有处理定义。对输入形状的任何更改都会改变全连接层的输入形状,从而使权重不兼容(矩阵大小不匹配且无法应用)。
这是全连接层的一个特定问题。如果使用另一层进行分类,例如全局平均池化,则不会出现此问题。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)