rnn

    1热度

    1回答

    我对神经网络相当陌生,并没有太多的经验。我的问题如下: 我有一个数组,每个数据点有877个不同的数据点,200个特征。它是一个PCA简化的TfIdf矩阵,其中每行对应于我的数据集中的一段文本(如段落本身)。我正在尝试为此数据(类1或0)创建二进制分类器。我已经成功地得到了从低到80%的准确率中旬线性SVM,并且约80%的准确度有一个简单的密集NN如下: model = Sequential()

    0热度

    1回答

    我正在尝试在DeepLearning4J中找到GRU实现,但似乎无法找到它。有谁知道GRU是否在DL4J内实现?如果是的话,请你直接给我一个例子。如果没有,这是否在他们的路线图上? 谢谢

    1热度

    1回答

    我想在不使用MultiRNNCell的情况下制作多层RNN,因为我想独立更新每个图层。所以我没有使用tf.dynamic_rnn。 with tf.variable_scope("cell"): with tf.variable_scope("cell_1", reuse=True): cell_1 = tf.contrib.rnn.BasicLSTMCell(n_hidden

    2热度

    1回答

    据我所知,DropoutWrapper使用如下 __init__( cell, input_keep_prob=1.0, output_keep_prob=1.0, state_keep_prob=1.0, variational_recurrent=False, input_size=None, dtype=None, seed=None ) 。 cell = tf.nn.r

    1热度

    1回答

    wordsList = np.load('training_data/wordsList.npy') wordsList = wordsList.tolist() #Originally loaded as numpy array wordsList = [word.decode('UTF-8') for word in wordsList] #Encode words as UTF-8 w

    1热度

    1回答

    LSTM的主要目的是利用其记忆属性。基于此,无状态LSTM的存在意义何在?我们不要通过这样做将它“转换”为简单的NN吗? 换句话说..是否无国籍使用LSTM的目的是在输入数据中的序列(窗口)进行建模 - 如果我们应用洗牌=假在配合层中keras - (例如,用于一个窗口10个时间步骤捕获10个字符的单词之间的任何模式)?如果是的话,我们为什么不将初始输入数据转换为匹配被检查序列的形式,然后使用一个

    3热度

    1回答

    当我使用.fit()图层训练模型时,参数shuffle预设为True。 假设我的数据集有100个样本,并且批量大小为10.当我设置shuffle = True时,keras首先随机地随机选择样本(现在100个样本的顺序不同),然后按照新的顺序开始创建批次:批次1:1-10,批次2:11-20等 如果我设置shuffle = 'batch'它应该如何在后台工作?直观地使用批量大小为10的100个样本

    -1热度

    1回答

    我想预测股票价格。 通常情况下,人们会以股票价格序列的形式输入投入。然后他们会以相同的顺序馈送输出,但向左移动。 测试时,它们将所述预测的输出馈送到这样的下一个输入的时间步长: 我有另一个想法,这是修复序列的长度,例如50个时间步。 输入和输出的顺序完全相同。 当训练时,我将输入的最后3个元素替换为零,让模型知道我没有输入这些时间步长。 当测试时,我会为模型提供一个由50个元素组成的序列。最后3个

    0热度

    1回答

    我想要构建40级LSTM分类器来分析时间序列数据。我有从13个传感器收集的13维实时数据。当我运行下面的代码时,我不断收到此错误消息。 ValueError: Error when checking model input: the list of Numpy arrays that you are passing to your model is not the size the model e

    0热度

    1回答

    我一直在600k条+摘要训练语料库上训练文本seq2seq w /注意模型,用于抽象概括。这可以视为收敛吗?如果是这样,在不到5K步骤后会聚合吗?注意事项: 我已经对20万个 5K步骤的词汇尺寸为4的批量式训练(直到大约收敛),意味着在大多数20K不同的样品进行观察。这只是整个训练语料库的一小部分。 或者我实际上没有在茶叶里看到我的狗的脸,是预期的边际负坡?