辍学位置的直观差异

问题描述

请考虑以下示例,

# Flatten the output layer to 1 dimension
x = layers.Flatten()(last_output) # (2)
# Add a fully connected layer with 1,024 hidden units and ReLU activation
x = layers.Dense(1024,activation='relu')(x) # (1)
# Add a dropout rate of 0.2
x = layers.Dropout(0.2)(x)                  
# Add a final sigmoid layer for classification
x = layers.Dense  (1,activation='sigmoid')(x)           

model = Model( pre_trained_model.input,x) 

x层链附加到初始网络的卷积输出。我想了解在以(1)标记的致密层之后使用dropout和将(2)标记的特征展平后直接应用dropout的直观影响。

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)