问题描述
请考虑以下示例,
# Flatten the output layer to 1 dimension
x = layers.Flatten()(last_output) # (2)
# Add a fully connected layer with 1,024 hidden units and ReLU activation
x = layers.Dense(1024,activation='relu')(x) # (1)
# Add a dropout rate of 0.2
x = layers.Dropout(0.2)(x)
# Add a final sigmoid layer for classification
x = layers.Dense (1,activation='sigmoid')(x)
model = Model( pre_trained_model.input,x)
x层链附加到初始网络的卷积输出。我想了解在以(1)标记的致密层之后使用dropout和将(2)标记的特征展平后直接应用dropout的直观影响。
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)