conv-neural-network

    0热度

    1回答

    我有一个三维卷积神经网络[k​​eras,tensorflow]和先进的阿尔茨海默氏症患者,早期阿尔茨海默氏症和健康人(三类)的3D脑图像。我拥有324个图像的训练集和74个图像的测试集。当我训练我的CNN时,我有大约65-70%的准确性,但是对于测试集我只有30-40%。当我使用测试数据作为验证数据时,那么对于训练集,我的准确性也不会超过37%,并且整个时间损失保持在同一水平。不知道我改变了哪些

    -7热度

    1回答

    虽然通过其他技巧在面部表情识别中获得了相当大的准确度,但只需要帮助理解。深度学习是如何增加的呢?这个领域真的需要吗? 感谢所有。

    0热度

    2回答

    我建立一个模型来检测的身体部位的关键点。为此,我使用COCO数据集(http://cocodataset.org/#download)。我试图理解为什么我会遇到过度劳累的问题(训练损失趋于一致,但为了测试损失,我真的达到了上限)。在模型中,我已经尝试添加差(逐渐更高的概率增加更多层的多层,但我很快得到一个点时,训练停止损失减少是一样糟糕。我的理论是,该模型我用ISN” T个复不够好,但我想知道这是

    0热度

    2回答

    对于346图像,我获得了借助于预训练模型Alexnet(使用转移学习的概念)提取的4096个特征。 这些负值代表什么? 如果我将这些负值转换为零或正值,可以吗? Screenshot of data

    2热度

    2回答

    我正在尝试使用神经网络进行分类(我正在使用tensorflow)。 不幸的是,我的神经网络训练陷入了42%的精度。 我有4个类,我试图分类数据。 不幸的是,我的数据集是不均衡的,这意味着: 数据 43%属于1类(是的,我的网络卡预测仅此) 37%,至2级 13%至3类 7%至4类 我使用的优化是AdamOptimizer和成本函数是tf.nn.softmax_cross_entropy_with_

    1热度

    1回答

    我正在寻找一种方法来数值评估我的无类CNN的结果。 CNN的训练是从灰度图像中去除伪像。因此,CNN获得包含每个通道中的伪像的“9通道”灰度图像(具有部分冗余数据但是不同伪影连接 - >尺寸[numTrainInputs,512,512,9]的9个灰度图像)作为输入并且应该输出单个没有工件的灰度图像[numTrainInputs,512,512,1]。 CNN的训练使用MSE作为损失函数,Adam

    0热度

    1回答

    我想训练tenserflow U-net,用于炉膛的多标签分割。我有3个标签,预测有3个概率图(每个标签有一个概率图)。我使用动量优化器进行了训练,这也是网络的默认优化器。在最初的迭代中,标签1和标签2的概率映射是不同的,但是在一些迭代(或时期)之后,标签1和标签2的概率图变得完全相同,并且在技术上我有一个二进制标签分割。我见过其他类似U-net架构的网络,并且他们已经对多标签数据集进行了培训。我

    0热度

    2回答

    这是我做的。我得到了狗/猫图像分类的代码,我编译并运行了80%的准确性。我添加了一个班级(飞机)文件夹到火车和验证文件夹。在下面的代码 model.compile(loss='categorical_crossentropy', optimizer='rmsprop', metrics=['accuracy']) train_generator = train_

    1热度

    1回答

    我在努力改进下面的cnn架构。我正在使用cnn进行图像分类。任何人都可以建议对下面的体系结构进行任何更改,以减少训练时间而不会失去太多的准确性? 上建筑注: 它具有利用3,3窗口处理的神经网络的初始输入16个滤波器卷积层。 它随后与2,2- 接着一个最大池层,是另一种卷积层,其大小与第一层相同,以便保持这是通过从现有层传递的数据。 继第一层2是第三卷积层为包括过滤器32,因为这允许对网络开始寻找更

    0热度

    1回答

    我使用python keras构建cnn模型。 我遵循cnn mnist的例子,并修改为我的代码。 这是我发现 # Read MNIST data (X_Train, y_Train), (X_Test, y_Test) = mnist.load_data() # Translation of data X_Train40 = X_Train.reshape(X_Train.shape[0]