问题描述
我阅读了将LSTM
与CONV1
结合使用的示例。
(摘自:CNN LSTM)
Conv1D(filters=64,kernel_size=1,activation='relu')
- 我知道卷积的维数是1(大小为1的1个变暗)
- 卷积的值是多少? (矩阵1 * 1的值是多少?)
- 我不知道
filters=64
是什么吗?是什么意思? -
relu
激活函数是否对卷积的输出起作用? (从我阅读的内容来看,似乎是这样,但我不确定) - 像我们在这里一样,将卷积与
kernel_size = 1
一起使用的动机是什么?
解决方法
过滤器
filters = 64
表示使用的单独过滤器数为64。
每个滤波器将输出1个通道。也就是说,这里有64个滤波器对输入进行运算以产生64个不同的通道(或矢量)。因此,filters
参数确定输出通道的数量。
kernel_size
kernel_size
确定卷积窗口的大小。假设kernel_size = 1
,则每个内核的维数为in_channels x 1
。因此,每个内核权重将为in_channels x 1
维张量。
激活= relu
这意味着relu
激活将应用于卷积运算的输出。
kernel_size = 1卷积
用于通过应用非线性来减少深度通道。在保持接收场的同时,它会在各个通道上进行加权平均。
例如:filters = 64,kernel_size = 1,activation = relu
假设输入要素图的大小为100 x 10
(100个通道)。然后,层权重将为64 x 100 x 1
维。输出大小将为64 x 10
。