training-data

    0热度

    2回答

    我正在做一个简单的二进制分类,我给你一个我有问题的例子:可以说我们有n文档(Doc 1,Doc 2, ...,Doc n。)我们将使用TF-IDF作为特征值来训练一个二进制分类器,使用bag-of-words。我们有m我们的培训文件的功能(从技术上来说,这是我们在清理和预处理之后在所有这n个文件中具有的唯一令牌的数量)。 现在,让我们说我们有一个训练有素的模型,我们要预测一个新文档的标签。我们应该

    0热度

    1回答

    我尝试使用TensorFlow和TensorFlow示例中的MNIST数据集来训练模型。这工作正常。 但是每次我开始运行模型训练的python脚本时,训练图像都有不同的顺序(顺序)。 我怎样才能定义训练图像的序列是每次相同,当我开始我的python脚本?

    1热度

    1回答

    我正在学习如何使用Keras和CIFAR-10数据集实现数据增强。我在网上教程和本书的帮助下学习Deep learning with Keras. 代码的具体细节是here。 这里是我的问题,我确信它涉及到对我而言有些误会: 这是我CONV成立。 IMG_CHANNELS = 3 IMG_ROWS = 32 IMG_COLS = 32 BATCH_SIZE = 128 NB_EPOCH =

    0热度

    1回答

    我的时间一定时间与时间戳跟踪多个信号和关联他们像以下: t0 1 10 2 0 1 0 ... t1 1 10 2 0 1 0 ... t2 3 0 9 7 1 1 ... // pressed a button to change the mode t3 3 0 9 7 1 1 ... t4 3 0 8 7 1 1 ... // pressed button to adjust a ce

    0热度

    1回答

    我正在对LIDC-IDRI数据集上的分割网络U-net进行培训。目前有两种训练策略: 从头开始训练整个训练集的模型(40k步,180k步)。 对整个训练集的10%进行训练。收敛后(30k步),继续在整个训练集上训练模型(10k步)。 随着Dice coefficient作为损失函数,这也是在V-网架构(paper)使用的,模型方法2训练总是比用方法1.前者可以实现一个骰子得分的0.735更好,而后

    1热度

    1回答

    我正在使用非负矩阵分解(NMF)主题模型为客户反馈构建主题模型。 它创建话题群集如下: [(0, [u'reserved block', u'reserved block available', u'reserved block week', u'need reserved block']), (1, [u'hour block', u'package hour block', u'bring h

    2热度

    1回答

    我面临的问题无法用我在互联网上找到的解决。 我建立了我的神经网络,并将它连接到输入管道。从tfrecord 读取数据,与tf.train.batch和queueRunners,COORDS等。 我建立我的NN到一个名为 “模型”,我喜欢使用Python类: 模型=模型(...所有超参数在这里...) ... model.predict() 或 model.step() 所有训练阶段工作得很好。 但

    1热度

    1回答

    我正在使用keras来实现一个简单的二进制分类网络。我有一个包含2个类别的数据集,我正在尝试使用这些数据来训练我的网络。我没有庞大的数据集。在这两个类别的图像总数是500左右 网络是如下: self.model = Sequential() self.model.add(Conv2D(128, (2, 2), padding='same', input_shape=dataset.X_

    0热度

    1回答

    我想实现数据集划分到培训和测试集,但在从第45行开始的功能我遇到了问题。 “KeyError异常:667952”运行,具有程序返回后(在错误的数量我每次运行的程序是不同的) 1 import numpy as np 2 import pandas as pd 3 import random 4 5 data_file = pd.read_csv('loan.csv') 6 7 # va

    1热度

    1回答

    我正在使用LSTM和tensorflow的翻译模型来训练会话代理。我使用批次式训练,导致每次纪元开始后训练数据困惑度显着下降。这种下降可以通过我批量读取数据的方式来解释,因为我保证训练数据中的每个训练对在每个纪元处理一次。当一个新纪元开始时,模型在以前的时代中所做的改进将再次遇到训练数据,从而显示其利润,表现为图中的下降。其他分批方法(如张量流的翻译模型中使用的方法)不会导致相同的行为,因为他们的