我有一个野外采集的植物图像数据集。我用这个数据集训练了一个经过微调的inception-v3和一个vgg16模型
这两个数据集都是相同的
opt = SGD(lr=0.001, momentum=0.09)
# Fine-tuning with a small learning rate
model.compile(loss = 'categorical_crossentropy',optimizer = opt,
metrics=['accuracy'])
VGG16
我冻结了基础模型中的所有层,并进行了50个阶段的热身训练。 然后我从图层索引15开始解冻图层,并训练100个时代
接收v3
我冻结了基础模型中的所有层,并训练了20个时代。接下来,如keras documentation中所述,我解冻层索引249下的所有层,并为100多个时代进行训练
这就是结果
很明显,vgg16的性能优于inceptionv3。这是什么原因
目前没有回答
相关问题 更多 >
编程相关推荐