neural-network

    2热度

    1回答

    所以我想练习如何在Keras和所有参数(样本,时间步长,功能)使用LSTMs。 3D列表令我困惑。 因此,我有一些股票数据,如果列表中的下一个项目高于5的门槛值+2.50,它会购买或出售,如果它处于该阈值的中间,则这些是我的标签:我的Y. 对于我的特征我的XI具有[500,1,3]为我的500个样本的数据帧和每个时步为1,因为每个数据为3个特征1小时增量和3。但我得到这个错误: ValueErro

    0热度

    1回答

    这是一个我不断面临的问题,但似乎无法在任何地方找到答案。我有一个700个样本的数据集。因此,我必须使用交叉验证,而不是仅使用一个验证和一个测试集来近似估计错误。 我想用神经网络来做到这一点。但是在用神经网络进行CV并得到错误估计之后,我如何在整个数据集上训练NN?因为对于其他算法,如Logistic回归或SVM,不存在何时停止训练的问题。但是对于NN,你需要训练它直到你的验证分数下降。因此,对于最

    0热度

    1回答

    ,当我试图解决我的神经网络我收到此错误信息: Check failed: label_value < prob_.shape(softmax_axis_) (1 vs. 1) 我的标签都是0或1。当我尝试了这个example它与0和1标签的工作。因此,我的假设是错误是在第二部分: prob_.shape(softmax_axis_) 我在源代码中看着它,我不明白我的源代码或prototxt

    2热度

    1回答

    我使用this项目为例(框架 - caffe,AlexNet的net-mod架构,400个图像用于训练)。我有这样的结果: 或本: 求解:净 net: "./CDNet/Models/train.prototxt" test_iter: 500 test_interval: 500 base_lr: 0.001 lr_policy: "step" gamma: 0.1 stepsize

    3热度

    2回答

    给定一个训练有素的系统,可以通过输出值和部分输入向后运行网络以查找缺少的输入值的值。这个操作有没有名字? 在一个带有2个输入神经元(值为1和X)和一个输出层神经元(值为1)的训练XOR网络的示例中。如果有人想找到第二个输入神经元的价值,他们可以反馈信息可以计算出它接近于0.这个操作到底叫什么名字?

    0热度

    1回答

    这是一个更复杂的模型的一部分(这是自动编码部分): autoweights = { 'encoder_h1': tf.Variable(tf.random_normal([num_input, num_hidden_1])), 'encoder_h2': tf.Variable(tf.random_normal([num_hidden_1, num_hidden_2])),

    1热度

    1回答

    我想我会问这里多个quesitons,我想任何评论,因为我是新来Caffe。 在我的网络输入图像具有尺寸1x41x41由于我使用的64批次大小,我认为数据量将是64x1x41x41(请纠正我,如果这是错误的) 一些卷积层后(不改变数据大小),我想将结果数据乘以大小为1x41x41的预定义斑点。使用EltwiseLayer来进行乘法似乎很方便。所以为了定义Eltwise的第二底层,我需要为blob提

    1热度

    2回答

    我想提取手写字符,写入像这样的框。 我正在提取29像素的宽度的正方形,这给我像这些图像。 正确识别字符,个别字符图像必须非常干净。与此类似, 我在做什么是, 计算水平和垂直投影每个图像的 。 遍历两个数组的每个元素。如果投影值大于某个阈值,则意味着它没有遇到边界。它删除边界周围的空白。 然后在图像中找到轮廓。 如果轮廓的面积大于某个阈值。获取边界矩形并裁剪。 但问题是,该方法并不准确。在某些情况下

    0热度

    1回答

    我正在使用Keras + TensorFlow后端进行神经网络实验。我在运行Windows 7的PC上使用GPU执行此操作。 我的工作流程如下所示。 我创建了一个小型python脚本,它定义了一个模型,然后运行model.fit_generator约50个纪元并提早停止,如果验证精度在10-15个纪元后没有提高。然后我运行一个命令如python model_v3_4_5.py 通常一个时代大约需要

    2热度

    2回答

    我试图用python从零开始实现一个简单的神经网络。这个神经网络只有两个神经元,任务是将输入与输出进行匹配。 (即x = 0→输出= 0,x = 1→输出= 1) 我已经使用了偏导数并尝试使用梯度上升来最大化负损失。 (完整代码如下所示)即使经过超过10000次迭代的训练,输出也不够好。 (我想也许这种损失可能会停留在本地的最大值)。谁能帮我弄清楚我的实现有什么问题吗? import random