training-data

    -1热度

    1回答

    有谁知道我该如何训练一个数据集并测试另一个数据集? 到目前为止,我只知道,我们可以将一个数据集分成训练和测试这一行代码: X_train, X_test, y_train, y_test = \ train_test_split(X, y, test_size=0.30, random_state=1) 我不知道是什么的一部分,如果我们培养的一个数据集和测试,我应该在该行改变在另一

    0热度

    2回答

    当传递给tf.train.batch时,它看起来像元素的形状必须严格定义,否则它会抱怨All shapes must be fully defined如果存在形状为Dimension(None)的张量。那么,如何在不同尺寸的图像上进行一次训练呢?

    2热度

    3回答

    这个问题已被部分询问here和here没有跟进,所以也许这不是问这个问题的地点,但我已经想出了更多的信息,我希望能得到这些答案的问题。 我一直在试图在大约1k张照片上自己的库上训练object_detection。我一直在使用提供的管道配置文件“ssd_inception_v2_pets.config”。 我相信,我已经正确设置了培训数据。该计划似乎开始训练很好。当它无法读取数据时,它会以错误提醒

    0热度

    1回答

    正如您现在所见,Apple在今年的WWDC中引入Core ML为iOS 11。此框架使用已经训练过的ML模型,如果您的源模型与您的模型不匹配,您可以将其转换为特定格式。 Apple也可用于下载并直接集成一些已经培训的ML型号here。 另一方面,他们在WWDC 2017也提到,您可以使用工具(如Caffe或Keras)来训练模型。 我想培训一个比Apple已经培训和提供的模型更具体的目的,看起来很

    1热度

    1回答

    我想使用XGBoost的early_stopping_rounds做非过度训练。为此,我使用下面的代码: parameters = {'nthread': 4,'objective': 'binary:logistic','learning_rate': 0.06,'max_depth': 6,'min_child_weight': 3, 'silent': 0,'gamma': 0,

    3热度

    1回答

    我正在训练一个网络,该网络有多个损失,并使用生成器创建数据并将其馈入我的网络。 我检查过数据的结构,它看起来一般都很好,它也像预期的那样大部分时间训练,但是在几乎每一次的随机时代,每次预测的训练损失突然跳跃从说 # End of epoch 3 loss: 2.8845 到 # Beginning of epoch 4 loss: 1.1921e-07 我认为它可能是数据,但是,从我可

    0热度

    2回答

    目标是在不同的训练数据框上执行多个logit回归,然后评估各个测试数据集的性能。 首先,我们从df创建多个(5)随机取样的数据帧: for(i in 1:5) { nr <- paste("random_df", i, sep = "_") assign(nr, random_df[sample(nrow(df)),]) } 然后,我们创建用于分离指标分成训练 - 和测试集: train

    1热度

    1回答

    我正在进行面部表情识别,我正在使用Keras。我收集了许多数据集,然后在图像上应用了数据增强功能,在.csv文件(与fer2013.csv格式相同)上保存了约500 000个图像(以像素为单位)。 这是我使用的代码: def Zerocenter_ZCA_whitening_Global_Contrast_Normalize(list): Intonumpyarray = numpy.a

    1热度

    1回答

    我想移动我的文件并创建一个新文件夹来将这些文件放在那里。 我在我的MATLAB目录中的图像文件夹中有许多.png文件。我想随机选择其中的80%,并将它们移动到另一个名为training folder的文件夹中,位于我的matlab目录中。下面是我的代码,这是行不通的。它不能找到该文件移动:( data_add = fullfile(cd,'images'); all_files = dir(da

    0热度

    2回答

    如上所述,既 tf.nn.conv2d与步幅= 2 和 tf.nn.max_pool以2x2池 可以将输入的大小减少到一半,并且我知道输出可能不同,但我不知道的是影响最终的训练结果与否,对此的任何线索,谢谢。