问题描述
我有一个关于在完全连接层之后在多个通道上计算一维卷积的问题。 我已经建立了一个简单的模型Keras,用于检测一维数字信号中的短脉冲。
我的模特是:
def one_dim_cnn_cust_model(n_kernel_1,n_kernel_2,n_outputs):
input_shape = [1,25]
model = Sequential()
model.add(Reshape((25,1),input_shape=(input_shape)))
model.add(Conv1D(filters=8,kernel_size=n_kernel_1,activation='relu',input_shape=input_shape[1:]))
model.add(Dense(16,activation='relu'))
model.add(Conv1D(filters=8,kernel_size=n_kernel_2,padding="same"))
model.add(Dropout(0.5))
model.add(AveragePooling1D(pool_size=10))#35
model.add(Flatten())
model.add(Dense(16,activation='relu'))
model.add(Dropout(0.5))
model.add(Dense(8,activation='relu'))
model.add(Dropout(0.5))
model.add(Dense(n_outputs,activation='sigmoid'))
print(model.output_shape)
return (model)
模型摘要https://i.stack.imgur.com/psPrk.png
为了更好地理解该网络,我提取了特征,权重和偏差,并尝试使用Numpy实施此网络并将Numpy模型结果与Keras模型结果进行比较。 在实现第一个一维卷积网络和第二层(即完全连接的层)之后,对于Numpy vs. Keras模型,我得到了相同的结果。 当我尝试实现第三层(即完全连接的层之后的一维卷积层)时,我遇到了Keras和Numpy模型的结果之间的不匹配。
完全连接层的输出尺寸为10x16,第三层的权重矩阵为16x16x8。 我的实现也是: #l3_weights dim : (16,16,8)
#l3_bias dim : (8,)
#fc_outouts :: (16,8)
l3_outouts_calc_temp = np.zeros((16,10,8))
l3_outouts_calc_temp_2 = np.zeros((16,8,10))
for w_ch in range (0,16):
for filter in range(0,8):
value = (fc_outouts[:,:] @ l3_weights[w_ch,:,filter])+ l3_bias[filter]
value = np.maximum(0,value) # Relu
l3_outouts_calc_temp_2[w_ch,filter,:] = value
for w_ch in range(0,16):
l3_outouts_calc_temp[w_ch,:] = l3_outouts_calc_temp_2[w_ch,:].T
l3_outouts = np.sum(l3_outouts_calc_temp,axis=0)
在下面的链接中,您可以找到包含相关数据的.npy文件。 https://drive.google.com/drive/folders/16BLIvR2oVxUZko7g1WJwFPucZfqAyoUD?usp=sharing 如果您能回复说明,我会很高兴
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)