我有一个关于 MobileNet 和 EfficientNet 反向残差块的更一般性的问题。我有一个复杂度较低的图像数据集的分类任务。因此我选择了一个参数很少的架构(EfficientNet B0)。但就验证损失而言,我遇到了过度拟合。浅层 resnet、ResNeXt 等效果更好。这些架构使用常规残差块,因此具有更多参数。 所以这里似乎没有参数数量和模型复杂度之间的关系?有人可以解释一下我在这里缺少什么吗?
这是一个非常有趣的问题。我也很想回复那个话题。