为什么对于相同的数据集,微调vgg16比微调接收v3表现更好?

2024-06-02 09:00:42 发布

您现在位置:Python中文网/ 问答频道 /正文

我有一个野外采集的植物图像数据集。我用这个数据集训练了一个经过微调的inception-v3和一个vgg16模型

这两个数据集都是相同的

opt = SGD(lr=0.001, momentum=0.09)
# Fine-tuning with a small learning rate
model.compile(loss = 'categorical_crossentropy',optimizer = opt,
              metrics=['accuracy'])

VGG16

我冻结了基础模型中的所有层,并进行了50个阶段的热身训练。 然后我从图层索引15开始解冻图层,并训练100个时代

这就是结果。 enter image description here

enter image description here

接收v3

我冻结了基础模型中的所有层,并训练了20个时代。接下来,如keras documentation中所述,我解冻层索引249下的所有层,并为100多个时代进行训练

这就是结果

enter image description hereenter image description here

很明显,vgg16的性能优于inceptionv3。这是什么原因


Tags: 数据模型图像图层v3基础植物opt