loss

    5热度

    2回答

    在keras,我想自定义损失函数,它不仅占用(y_true,y_pred)作为输入,但也定制损失函数的实现需要使用从的内部层输出网络作为输出层的标签。此图显示Network Layout 这里,内部输出是xn,它是一维特征向量。在右上角,输出是xn',这是xn的预测。换句话说,xn是xn'的标签。 虽然[AX,AY]传统上已知为y_true,和[AX 'AY']被y_pred。 我想将这两个损失组

    4热度

    1回答

    嗨,我试图进入张量流,感觉有点愚蠢。 TF中的log_loss与sklearn的不同? 下面是我的一些代码,我如何计算: from sklearn.metrics import log_loss tmp = np.array(y_test) y_test_t = np.array([tmp, -(tmp-1)]).T[0] tf_log_loss = tf.losses.log_loss

    0热度

    1回答

    我想知道如何解释MATLAB中的损失函数结果? 换句话说,例如,如果我得到了0.3247作为kfoldLoss()函数的结果,这是否意味着它是32.47%的错误或是0.3247%,或者我如何正确地定义/解释这个获得的结果? 非常感谢你提前

    5热度

    2回答

    任何人都可以用简单的话和可能的例子说明什么是机器学习/神经网络领域的损失函数? 该走了出来,而我是跟随Tensorflow教程: https://www.tensorflow.org/get_started/get_started

    1热度

    1回答

    我有以下白色像素作为输入数据,并使用sklearn.linear_model.RANSACRegressor来拟合2次(二次)的多项式以避免异常值。在这种情况下,结果显示为红色,是完全正确的: 但是,我知道在我的应用程序,二次曲线总会有这个图片的右侧最小值/最大值(但我不知道在哪个高度),并且曲率不能那么强。换句话说:我已经知道我最适合应该像蓝线,其他点是腐败的异常值。 有没有办法通过(例如)提供

    4热度

    1回答

    我有极端UDP数据包丢失与Android,它没有任何意义。这种情况如下:连接到连接到家庭网络 家庭路由器的家庭网络 电话运行Java服务器(机器人)是一个全新的WRT1900ac PC上运行Java客户端。网络具有互联网连接。 UDP数据包很小(< 15字节) 症状: 如果PC机发送UDP数据包到另一台电脑(包括同一网络上),它的工作原理很好(几乎没有丢包)。 如果Android向同一网络上的PC

    0热度

    1回答

    我正在训练一个网络,在我的训练集上进行批量优化,并且我希望获得包含每个训练示例丢失的损失向量。 更具体地说,我正在使用批量为64的图像(尺寸为3x64x64)。因此,我的输入是尺寸为64x3x64x64的张量。 期间,当我写 output = net:forward(input) loss = criterion:forward(input, target) loss是多少,但我想在我的批处

    0热度

    1回答

    在我的项目中,负面实例远远多于正面实例,所以我想给予更大权重的正面实例。 我的目标是: loss = 0.0 if y_label==1:loss += 100 * cross_entropy else:loss += cross_entropy 如何tensorflow realizate这个

    2热度

    1回答

    我需要最小化KL loss,tensorflow。 我试试这个功能tf.contrib.distributions.kl(dist_a,dist_b,allow_nan = False,name = None)但没有实现。 我尝试手动implemets它: def kl_divergence(p,q): return p* tf.log(p/q)+(1-p)*tf.log((1-p)/(

    2热度

    2回答

    我学习pytorch,并采取ANPR项目,这是基于tensorflow (https://github.com/matthewearl/deep-anpr, http://matthewearl.github.io/2016/05/06/cnn-anpr/) 作为练习,移植它pytorch平台。 有一个问题,我使用nn.CrossEntropyLoss()作为损失函数: 准则= nn.CrossE