lstm

    1热度

    1回答

    我有1025643个条目和72个特征/属性的测试数据。我已经用形状(245,30,72)和形状(245,)训练了带有输入数据trainX的lstm。另外请注意,我已经指定了后退30步,因此trainX的形状(245,30,72)。 现在训练模型后,如果我做 model.output_shape 输出是: (无,1) 我的理解是,它将使对测试集进行一步预测。但我希望它是30行的预测,每个未来的步骤,

    0热度

    1回答

    我想建立一个使用Keras的LSTM网络。 我的时间seriese例子的大小为492。我想用3前面的例子来预测下一个例子。因此,输入转换为尺寸(num_samples,3*492),输出尺寸为(num_samples,492)。 据this blog,我首先将我的数据大小为形式的(num_samples,时间步长,功能) #convert trainning data to 3D LSTM sha

    1热度

    1回答

    我有两个时间序列A和B: A: 1,2,3,1,2,3,3,3,1,2,3,3,3 B: 0,0,1,0,0,1,1,1,0,0,1,1,1 这种简单的训练集说,信号B相关A.其实每次A等于3,在B的同一时间戳,值为1. 我介绍了上面的例子来解释我的问题。当我通过使用带Keras的LSTM预测数据时,我希望模型能够从系列中理解这种依赖关系。 现在我用这个配置: model.add(keras

    1热度

    1回答

    我正试图在PyTorch中编写一个非常简单的机器翻译玩具示例。为了简单的问题,我打开机器翻译任务到这一个: 给定一个随机序列([4, 8, 9 ...]),预测其元素的元素加1([5, 9, 10, ...])的序列。 Id:0, 1, 2将分别用作pad, bos, eos。 我在我的机器翻译任务中发现了这个玩具任务中的同样的问题。为了调试,我使用了非常小的数据大小n_data = 50,并发现

    0热度

    1回答

    我打算在Pytorch中实现一个带有多个存储单元块 - 或多个LSTM单元的LSTM,每个层都有一个LSTM单元作为存储器块的集合及其门 - 但似乎基类torch.nn.LSTM只能实现与一个LSTM单元的多层LSTM每层: lstm = torch.nn.LSTM(input_size, hidden_size, num_layers) 其中(从Pytorch的文档): input_size

    1热度

    1回答

    我正在使用Keras和LSTM进行小型文本生成项目。 Chollet的代码工作得很好。有人可以向我解释多样性步骤0.2,0.05,1.0,1.2吗?这里究竟发生了什么?提前致谢! for diversity in [0.2, 0.5, 1.0, 1.2]: print() print('----- diversity:', diversity) generated

    1热度

    1回答

    刚开始研究RNN和LSTM ...有一个问题没有回答我看过的任何资源: 以下是我如何理解RNN中参数共享的要点。我的问题是: 我对RNN的理解,总结如下,是否正确? 在Keras的实际代码示例中,我研究了LSTM,它们将句子填充到相同的长度。通过这样做,这不会冲走RNN中参数共享的全部目的吗? 在常规的前馈神经网络中,每个输入单元都被分配一个单独的参数,这意味着输入单元(特征)的数量对应于要学习的

    0热度

    1回答

    我一直在尝试实现一个基本的多层LSTM回归网络来找出加密电子货币价格之间的相关性。 在遇到无法使用的训练结果后,我决定尝试使用一些沙盒代码,以确保在重试完整数据集之前我已经明白了。 问题是我不能让凯拉斯推广我的数据。 ts = 3 in_dim = 1 data = [i*100 for i in range(10)] # tried this, didn't accomplish an

    1热度

    1回答

    我有一个数据集C的50,000(二进制)样本,每个样本的128功能。类标签也是二进制文件,即1或-1。例如,样本看起来像这样[1,0,0,0,1,0, .... , 0,1] [-1]。我的目标是根据二进制类(即1或-1)对样本进行分类。我想尝试使用Recurrent LSTM来生成一个很好的分类模型。 tr_C, ts_C, tr_r, ts_r = train_test_split(C, r,

    0热度

    1回答

    通过张量流实现tflearn的lstm imdb example。 我使用了与tflearn模型相同的数据集,体系结构和超参数(嵌入大小,句子的最大长度等),但是我的模型的性能比tflearn示例差(10个历元后,我的模型得到了精度约为52%,而实例接近80%)。 如果您能给我一些建议以达到示例的适当性能,我会非常感激。 下面是我的代码: import tensorflow as tf from