我的神经网络的第一层是这样的:输入形状和Conv1d在Keras
model.add(Conv1D(filters=40,
kernel_size=25,
input_shape=x_train.shape[1:],
activation='relu',
kernel_regularizer=regularizers.l2(5e-6),
strides=1))
如果我的输入形状是(600,10)
我得到(None, 576, 40)
作为输出形状
如果我的输入形状是(6000,1)
我得到(None, 5976, 40)
作为输出形状
所以我的问题是到底发生了什么?是第一个简单地忽略90%输入的例子?
这不是我真正想问的。可以说我用0填充,那么我的输出形状将分别为'(None,600,40)'和'(None,6000,40)'。我想知道的是'(600,10)'中的其他9个数组会发生什么,也就是说输出形状应该是'(None,576,40,10)'而不是'(None,576) ,40)' – drulludanni
@drulludanni我已经用更多的解释更新了答案。 – jdehesa
所以,我们在每个样本中有10个长度为600的序列。每个序列都代表一个特征。所以我们有e.q. 600个连续的温度值,600个连续的湿度值等。 Conv1D层在每个序列*中分别查找模式*。我能理解吗? – gisek