tensorflow-gpu

    1热度

    1回答

    我的模型约为2.4GB。在我的推理步骤中,我想要在每个GPU中通过多处理方法加载模型。这意味着我尝试在一个GPU中创建两个进程,并分别装载一个模型。 完成每个会话的配置后,每个会话都获得大约5GB的内存,但我仍然遇到“来自设备:CUDA_ERROR_OUT_OF_MEMORY”。我想知道。 ..寻求帮助 GPU信息: [搜索@ qrwt01 /家庭/ S /应用/ qtfserverd /斌] $

    0热度

    1回答

    我试图进入使用Tensorflow的深度学习世界,但在使用GPU运行后,我在运行基本的object detector app时遇到错误。 错误是一个CUDA_ERROR_OUT_OF_MEMORY说,当我实际上有16GB时,它不能分配3.9GB的内存。实际上,当我尝试仅使用1个工人时,错误得到解决,但我相信它没有使用总内存。 对不起,我的无知,但当你与GPU运行Tensorflow它使用RAM内存

    1热度

    1回答

    我正在使用Conv2D训练模型并开始突然变高top k分类精度为1.0但分类精度很低(接近0.006)。 我有108个不同的类别,所以我唯一能想到的就是它会以某种方式被卡住在一个类别上,即使数据集是非常平衡的。 所以我的问题是非常一般的: 什么会导致keras高top_k_categorical_accuracy但低categorical_accuracy?

    1热度

    3回答

    我已经让这个神经网络弄清楚房子是好买还是坏买。由于某些原因,代码不会更新权重和偏见。我的损失保持不变。这是我的代码: 我已经让这个神经网络弄清楚房子是好买还是坏买。由于某些原因,代码不会更新权重和偏见。我的损失保持不变。这是我的代码: import pandas as pd import tensorflow as tf data = pd.read_csv("E:/workspace_py

    3热度

    2回答

    我在Keras中创建了一个使用卷积和LSTM层的网络。 我读过tensorflow不能在GPU处理好LSTM层:http://minimaxir.com/2017/07/cpu-or-gpu/ 事实上,我的网络得到了在GPU慢(希望它不是一个进一步的问题)。 我希望tensorflow将所有的卷积运算都扔到GPU上,但保留所有的LSTM操作到CPU中。那可能吗?因此,考虑到我可以找到张量流图并确定

    -1热度

    1回答

    我改名模型风向/家/ ABCD/andrew_model_jul25_tif /含有模型和总结目录为/ home/ABCD/andrew_model_sep22 /含有相同的两个文件夹。当我改变了文件夹的名称回andrew_model_jul25脚本工作 Traceback (most recent call last): File "eval_on_full_image.py", li

    0热度

    1回答

    我使用苗条库训练我自己resnet_v2_152和 构建其上叠加了20个图像我自己的图像numpy的阵列数据自定义np.array数据。 这意味着我numpy的数组的大小将是 [224, 224, 20] 我没有问题,将数据转换成tfrecords使用字节转换时,让图像阵列数据预处理之后,但它总是显示的错误 INFO:tensorflow:Error reported to Coordinat

    0热度

    1回答

    ,我得到以下错误: 2017-09-24 10:49:20.526121: I tensorflow/core/common_runtime/gpu/gpu_device.cc:955] Found device 0 with properties: name: GeForce GTX 970 major: 5 minor: 2 memoryClockRate (GHz) 1.342 pci

    0热度

    1回答

    如果我只使用Tensorflow代码,GPU使用率超过80%,温度上升非常多。但是如果我使用Kers,使用率会下降到15%。另外,使用Keras不会达到GPU的最大时钟。 我试过980m,1070(笔记本)和960m,但是获得了相同的结果。 ANN和CNN都有相同的结果。 为什么在移动(笔记本电脑)GPU上使用Kers时,我的GPU利用率如此之低?我能做些什么来确保在笔记本电脑上使用Keras时获

    0热度

    1回答

    我想用Tensorflow来训练一个卷积网络。 卷积层的输入是3 Chaneel彩色图像和输出(标签)是单通道图像。 我正在使用tfrecord和队列。下面 image, labelImage = queue.dequeue_many(BATCH_SIZE) 图像出列运算给出进入作为输入到第一卷积层和labelImage用于计算损失。 conv1 = tf.layers.conv2d(inpu