问题描述
我正在尝试使用 Tensorflow 为 CIFAR-10 数据集实现 VGG-16 卷积神经网络。但我接近训练准确率的 10%。我的代码有什么问题?
import tensorflow as tf
from tensorflow.keras import datasets
(X_train,y_train),(X_test,y_test) = datasets.cifar10.load_data()
X_train.shape,y_train.shape,X_test.shape,y_test.shape
X_train = X_train/255
X_test = X_test/255
y_train = y_train.reshape(-1,)
model = tf.keras.Sequential([
tf.keras.layers.Conv2D(filters=64,kernel_size=(3,3),activation="relu",input_shape=
(32,32,padding="same"),tf.keras.layers.Conv2D(filters=64,tf.keras.layers.MaxPool2D(pool_size=(2,2),strides=(2,2)),tf.keras.layers.Conv2D(filters=128,tf.keras.layers.Conv2D(filters=256,tf.keras.layers.Conv2D(filters=512,tf.keras.layers.Flatten(),tf.keras.layers.Dense(4096,activation="relu"),tf.keras.layers.Dense(10,activation="softmax")
])
model.summary()
model.compile(loss=tf.keras.losses.sparse_categorical_crossentropy,optimizer=tf.keras.optimizers.Adam(),metrics=["accuracy"])
X_train[0].shape,y_train[0].shape
model.fit(X_train,y_train,epochs = 100)
解决方法
您似乎还没有找到合适的训练计划。
如果你不介意稍微改变模型,我建议在每个卷积层之后使用 Batchnorm。一般来说,使用 Batchnorm 更容易训练模型。
此外,您是否在一定数量的迭代后降低了学习率?在某些时候,太大的学习率可能不再减少您的训练错误。例如,ResNet 以 0.1 的初始学习率训练 100 个时期,然后用 0.01 训练另外 50 个时期和 0.001 再训练 50 个时期。