loss

    1热度

    1回答

    分类错误 我理解人们通常使用的损失及以下的错误培养 ce = cross_entropy_with_softmax(z, label_var) pe = classification_error(z, label_var) trainer = Trainer(z, (ce, pe), ...) 我们可以覆盖或定义自己的损失和错误的方法呢?我们真正需要的是在计算损失和错误时添加权重。例如,我

    2热度

    1回答

    这是预期的行为吗? library(mxnet) hidden_u_1 <- 100 activ_hidden_1 <- 'tanh' hidden_u_2 <- 1 learn_rate <- 0.001 initializer <- mx.init.uniform(1) optimizer <- 'rmsprop' #sgd loss <- mx.metric.mse

    0热度

    2回答

    我刚刚在我的机器学习生涯的开始,并想创建简单的CNN来分类2种不同的树叶(属于2种不同树种)。在收集大量的树叶图片之前,我决定在Tensorflow中创建非常小巧,简单的CNN,并仅在一幅图像上进行训练,以检查代码是否正常。我将大小为256x256(x 3通道)的照片标准化为< 0,1>,并创建了4层(2 conv和2 dense)网络。不幸的是,从一开始,损失几乎总是趋向于一些常数值(通常是一些

    1热度

    1回答

    我写了一个自定义图层,并且想同时输出accuracy和loss。这可以通过以下方式使用caffe来完成吗? 类似的东西来: layer { name: "" bottom: "" top: loss1 top: loss2 top: accuracy }

    0热度

    1回答

    我需要一个具有huber损失函数的python svm分类器。但其默认损失函数是铰链损失。你知道我怎样才能把损失函数分配给python svm? svc = svm.SVC(kernel='linear', C=1, gamma=1).fit(data, label)

    1热度

    1回答

    我想将欧几里得距离设置为LSTM或RNN的损失函数。 这样的函数应该有什么输出:float,(batch_size)或(batch_size,timesteps)? 模型输入X_train是(n_samples,timesteps,data_dim)。 Y_train具有相同的尺寸。 示例代码: def euc_dist_keras(x, y): return K.sqrt(K.sum(

    1热度

    1回答

    我正在实施一个损失函数,该函数将使用由0s and 1s组成的掩模张量(M)来消除一些损失值,给出预测(P)和地面实况(G)张量。 所以,我有2种可能的方式: 逐元素乘法: loss = K.sum(M * K.binary_crossentropy(G, P)) 条件选择: bin_ce = K.binary_crossentropy(G, P) loss = K.sum(tf.where(t

    2热度

    1回答

    我想在Keras中创建一个图像去噪ConvNet,我想创建自己的丢失函数。我希望它将噪声图像作为输入,并将噪声作为输出。这种丢失功能与MSE丢失非常相似,但这会使我的网络学会去除干净的图像,而不是来自输入噪声图像的噪声。 损失函数我想和y以实现嘈杂的图像,X干净的形象和R(Y)的预测图像: 我试着通过我自己,但我要使它不知道如何让损失访问我嘈杂的图像,因为它一直在变化。 def residual_

    1热度

    1回答

    我想在Keras中实现本文:https://arxiv.org/pdf/1603.09056.pdf使用Conv-Deconv跳过连接创建图像去噪网络。如果我在相应的Conv-Deconv层之间建立对称的跳过连接,但是如果我在输入和输出之间添加连接(如在论文中),我的网络工作得非常好,我的网络无法训练。难道我不懂纸吗? “但是,我们的网络学习用于从输入所述添加剂腐败由于在输入和网络输出之间的跳跃连

    0热度

    1回答

    我试图预测价格的特点。 我选择了一个非常简单的模型,但它很奇怪。损失函数非常高,我看不出问题在哪里。 这里是我的模型: ​​ 这就是我准备的资料:(一热,我分裂的所有数据进行训练和测试) df = encode_onehot(dataframe, cols=['Shape', 'Cut', 'Color', 'Clarity', 'Polish', 'Symmetry', 'Culet', '\t