验证损失缓慢增加且 val_acc 恒定 LSTM 模型准确率也低

问题描述

我有这个模型。我已经注释掉了所有的 dropout 层。我的 val_loss 正在缓慢但不断地增加。我的 val_acc 也保持不变。 我什至没有得到好的 Training_acc。我有 31 个用于训练的文件和 9 个用于验证的文件。数量较少,但文件大小很大。 使用 1000 个 epoch,我得到了 51.13548288941383 % 的准确率 26.544444932788608 % val_accuracy classifier.evaluate('for validation') 结果损失:7.5632 - 准确度:0.2222

训练的第一个时期是 纪元 1/1000 1/1 [==============================] - 6s 6s/步 - 损失:1.6574 - 准确度:0.2258 - val_loss :1.4020 - val_accuracy:0.2222

classifier = Sequential()classifier.add(LSTM(units=128,return_sequences=True,dropout=0.0,input_shape = (3257,715) ))classifier.add(LSTM(units=64,dropout =0.0))classifier.add(LSTM(units=32,return_sequences=False,dropout=0.0))classifier.add(Dense(32,activation='relu',kernel_regularizer=regularizers.l1_l2(l1=1e-5,l2) =1e-4),bias_regularizer=regularizers.l2(1e-4),activity_regularizer=regularizers.l2(1e-5)))classifier.add(BatchNormalization()) #classifier.add((Dropout(0.1)))classifier.add(Dense(64,activation='relu'))classifier.add(BatchNormalization()) #classifier.add((Dropout(0.9)))classifier.add(Dense(128,activation='relu'))classifier.add(BatchNormalization()) #classifier.add((Dropout(0.9)))classifier.add(Dense(64,activation='relu'))classifier.add(BatchNormalization()) #classifier.add((Dropout(0.9)))classifier.add(Dense(32,l2=1e-4),activity_regularizer=regularizers.l2(1e-5)))classifier.add(BatchNormalization()) #classifier.add((Dropout(0.1)))classifier.add(Dense(4,activation='softmax'))

[

plt.plot(history8.history['accuracy'],color = 'blue')
plt.plot(history8.history['loss'],color = 'red')
plt.plot(history8.history['val_accuracy'],color = 'green')
plt.plot(history8.history['val_loss'],color = 'black')

]1

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)

相关问答

错误1:Request method ‘DELETE‘ not supported 错误还原:...
错误1:启动docker镜像时报错:Error response from daemon:...
错误1:private field ‘xxx‘ is never assigned 按Alt...
报错如下,通过源不能下载,最后警告pip需升级版本 Requirem...