loss

    1热度

    1回答

    我使用的是多输出模型keras model1 = Model(input=x, output=[y2,y3]) model1.compile((optimizer='sgd', loss=cutom_loss_function) 我custom_loss_function是; def custom_loss(y_true, y_pred): y2_pred = y_pred[0]

    0热度

    1回答

    这是什么意思,如果这是tf.losses.softmax_cross_entropy_loss的返回值? <tf.Tensor 'softmax_cross_entropy_loss/value:0' shape=() dtype=float32> 这是否是事实陈述value:0平均和shape=()意味着什么也没计算的?

    0热度

    1回答

    我想在Torch中创建一个自定义丢失函数,这是对ClassNLLCriterion的修改。具体而言,ClassNLLCriterion损耗是: loss(x, class) = -x[class] 我想修改这是: loss(x, class) = -x[class]*K 其中K是网络输入的功能,而不是网络权重或网络输出。因此K可以被视为一个常数。 什么是实现此自定义条件的最简单的方法? u

    2热度

    1回答

    当我使用tensorflow,损失突然变成男,就像: Epoch: 00001 || cost= 0.675003929 Epoch: 00002 || cost= 0.237375346 Epoch: 00003 || cost= 0.204962473 Epoch: 00004 || cost= 0.191322120 Epoch: 00005 || cost= 0.181427178

    3热度

    1回答

    我正在为某个任务编写二元分类器,而不是在输出层中使用2个神经元我只想使用一个具有S形函数的函数如果它低于0.5,基本上输出0级,否则基本输出0。 图像被加载,调整大小为64x64并展平,以创建问题的传真)。数据加载代码将在最后出现。我创建占位符。 ​​ 并定义模型如下。 def create_model_linear(data): fcl1_desc = {'weights': wei

    -1热度

    1回答

    这是我的代码。我试图建立一个VGG 11层网络,结合ReLu和ELu激活以及内核和活动的许多正则化。结果令人困惑:代码是在第10个时代。我在列车和val方面的损失已经从2000年下降到1.5,但我在列车和val方面的表现仍然保持在50%。有人可以向我解释吗? # VGG 11 from keras.regularizers import l2 from keras.layers.advance

    2热度

    2回答

    我已经建立了一个包含4个类的小型自定义图像分类训练/ val数据集。 训练数据集有〜110.000个图像。 验证数据集具有〜6.000图像。 我遇到的问题是,在训练中,无论是训练精度(如在最后的训练样本的平均测量精度)和培训损耗而提高,同时验证准确性和损失保持不变。 这只有当我使用以来和RESNET模式,如果我用同样的训练和验证数据的alexnet模型,验证损失和准确性提高 在我的实验,我通过导入

    1热度

    1回答

    我正在使用Theano后端在Keras中训练分割网络,并且我正在使用ImageDataGenerator和flow_from_directory。 我的图片有灵活的大小。尽管您必须指定固定大小(target_size)并在读取图像时使用flow_from_directory,但该函数会自动填充原始图像边界外的点。 目前我设置的这个指定大小的值比我的最大图像大 - 说可能最大的图像是300x400,

    0热度

    1回答

    为什么此代码对损失函数正常工作,但在“ValueError:操作数无法与形状(32,)(24,)(32,)一起广播一次迭代后指标失败? 如果我在引号中使用“categorical_crossentropy”,那么它的工作原理。我的自定义指标看起来与keras.losses中的指标完全相同。 import keras.backend as K def categorical_crossentrop

    0热度

    1回答

    我正在训练RNN,并在一夜之间失去了NaN的功能。我一直在阅读这个解决方案是为了降低学习速度。当试图从我的(唯一)检查站重新开始训练并且使用较小的学习速度时,我仍然得到了NaN。这是否意味着我的检查点无法修复?有没有办法恢复这一个或使用tf.train.Saver这样一种方式,我保证模型的一个版本,在它达到一个不返回点之前?