我正在尝试为回归问题创建ResNet50模型,其输出值范围为-1至1。
我省略了classes参数,在预处理步骤中,将图像大小调整为224,224,3。
我尝试用创建模型
def create_resnet(load_pretrained=False):
if load_pretrained:
weights = 'imagenet'
else:
weights = None
# Get base model
base_model = ResNet50(weights=weights)
optimizer = Adam(lr=1e-3)
base_model.compile(loss='mse', optimizer=optimizer)
return base_model
然后创建模型,打印摘要并使用fit_generator进行训练
history = model.fit_generator(batch_generator(X_train, y_train, 100, 1),
steps_per_epoch=300,
epochs=10,
validation_data=batch_generator(X_valid, y_valid, 100, 0),
validation_steps=200,
verbose=1,
shuffle = 1)
我得到一个错误,虽然说
ValueError: Error when checking target: expected fc1000 to have shape (1000,) but got array with shape (1,)
查看模型摘要,这很有意义,因为最终的Dense层的输出形状为(None,1000)
fc1000 (Dense) (None, 1000) 2049000 avg_pool[0][0]
但是我不知道如何修改模型。我通读了Keras文档并看了几个示例,但是我看到的几乎所有内容都是针对分类模型的。
如何修改模型,使其正确格式化以进行回归?
最佳答案
您的代码引发错误,因为您使用的是原始的完全连接的顶层,该顶层经过培训可以将图像分类为1000个类别之一。为了使网络正常工作,您需要用自己的顶层替换顶层,顶层的形状应与数据集和任务兼容。
这是我用来为Keras的回归任务(人脸标志预测)创建ImageNet预训练模型的一个小片段:
NUM_OF_LANDMARKS = 136
def create_model(input_shape, top='flatten'):
if top not in ('flatten', 'avg', 'max'):
raise ValueError('unexpected top layer type: %s' % top)
# connects base model with new "head"
BottleneckLayer = {
'flatten': Flatten(),
'avg': GlobalAvgPooling2D(),
'max': GlobalMaxPooling2D()
}[top]
base = InceptionResNetV2(input_shape=input_shape,
include_top=False,
weights='imagenet')
x = BottleneckLayer(base.output)
x = Dense(NUM_OF_LANDMARKS, activation='linear')(x)
model = Model(inputs=base.inputs, outputs=x)
return model
就您而言,我想您只需要用
InceptionResNetV2
替换ResNet50
即可。本质上,您正在创建一个没有顶层的预训练模型:base = ResNet50(input_shape=input_shape, include_top=False)
然后在其之上附加您的自定义层:
x = Flatten()(base.output)
x = Dense(NUM_OF_LANDMARKS, activation='sigmoid')(x)
model = Model(inputs=base.inputs, outputs=x)
而已。
您还可以从Keras存储库中检查this link,该存储库显示了
ResNet50
在内部的构造方式。我相信它将为您提供有关functional API和图层替换的一些见解。另外,我想说的是,如果我们谈论的是对预训练的ImageNet模型进行微调,则回归和分类任务都没有太大不同。任务的类型主要取决于您的损失功能和顶层的激活功能。否则,您仍然具有
N
输出的全连接层,但是它们的解释方式不同。关于keras - 修改ResNet50输出层以进行回归,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/54537674/