2016-07-13 52 views
0

我目前正在开发一个程序在Tensorflow中读取数据1750 1750像素。我跑它通过一个卷积网络:Tensorflow错误:不兼容的形状广播

import os 
import sys 

import tensorflow as tf 
import Input 

FLAGS = tf.app.flags.FLAGS 

tf.app.flags.DEFINE_integer('batch_size', 100, "hello") 
tf.app.flags.DEFINE_string('data_dir',  '/Volumes/Machine_Learning_Data', "hello") 

def inputs(): 
    if not FLAGS.data_dir: 
    raise ValueError('Please supply a data_dir') 
    data_dir = os.path.join(FLAGS.data_dir, 'Data') 
    images, labels = Input.inputs(data_dir = data_dir, batch_size =  FLAGS.batch_size) 
    return images, labels 

def weight_variable(shape): 
    initial = tf.truncated_normal(shape, stddev=0.1) 
    return tf.Variable(initial) 

def bias_variable(shape): 
    initial = tf.constant(0.1, shape = shape) 
    return tf.Variable(initial) 

def conv2d(images, W): 
    return tf.nn.conv2d(images, W, strides = [1, 1, 1, 1], padding =  'SAME') 

def max_pool_5x5(images): 
    return tf.nn.max_pool(images, ksize = [1, 5, 5, 1], strides = [1, 1, 1, 1], padding = 'SAME') 

def forward_propagation(images): 
    with tf.variable_scope('conv1') as scope: 
     W_conv1 = weight_variable([5, 5, 1, 32]) 
     b_conv1 = bias_variable([32]) 
     image_matrix = tf.reshape(images, [-1, 1750, 1750, 1]) 
     h_conv1 = tf.nn.sigmoid(conv2d(image_matrix, W_conv1) + b_conv1) 
     h_pool1 = max_pool_5x5(h_conv1) 

    with tf.variable_scope('conv2') as scope: 
     W_conv2 = weight_variable([5, 5, 32, 64]) 
     b_conv2 = bias_variable([64]) 
     h_conv2 = tf.nn.sigmoid(conv2d(h_pool1, W_conv2) + b_conv2) 
     h_pool2 = max_pool_5x5(h_conv2) 

    with tf.variable_scope('conv3') as scope: 
     W_conv3 = weight_variable([5, 5, 64, 128]) 
     b_conv3 = bias_variable([128]) 
     h_conv3 = tf.nn.sigmoid(conv2d(h_pool2, W_conv3) + b_conv3) 
     h_pool3 = max_pool_5x5(h_conv3) 

    with tf.variable_scope('local3') as scope: 
     W_fc1 = weight_variable([10 * 10 * 128, 256]) 
     b_fc1 = bias_variable([256]) 
     h_pool3_flat = tf.reshape(h_pool3, [-1, 10 * 10 * 128]) 
     h_fc1 = tf.nn.sigmoid(tf.matmul(h_pool3_flat, W_fc1) + b_fc1) 
     keep_prob = tf.placeholder(tf.float32) 
     h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob) 
     W_fc2 = weight_variable([256, 4]) 
     b_fc2 = bias_variable([4]) 

     y_conv = tf.nn.softmax(tf.matmul(h_fc1_drop, W_fc2) + b_fc2) 
     return y_conv 

def error(forward_propagation_results, labels): 
    labels = tf.cast(labels, tf.float32) 
    mean_squared_error = tf.square(tf.sub(labels, forward_propagation_results)) 
    cost = tf.reduce_mean(mean_squared_error) 
    train = tf.train.GradientDescentOptimizer(learning_rate = 0.3).minimize(cost) 
    return train 

print cost 

不幸的是一个错误弹起用于广播

不相容形状:TensorShape([尺寸(100)])和TensorShape([尺寸(9187500),尺寸( 4)])

我一直无法调试。

矩阵尺寸的问题是什么?解释器说错误发生在tf.sub行。

编辑:

这是调用函数的代码的主要部分。

import Input 
import Process 

import tensorflow as tf 


def train(): 
    with tf.Session() as sess: 
     images, labels = Process.inputs() 

     forward_propgation_results = Process.forward_propagation(images) 

     train_loss = Process.error(forward_propgation_results, labels) 

     init = tf.initialize_all_variables() 

     sess.run(init) 

def main(argv = None): 
    train() 

if __name__ == '__main__': 
    tf.app.run() 
+0

很难说出发生了什么,因为它似乎错过了调用'error()'的脚本部分。 – ibab

+0

谢谢!我会尽快补充 –

回答

2

我发现了以下问题:

  1. labels输入是标签标识符的简单的1维阵列,但是它需要一个热编码为与基质大小为[batch_size, 4],填充1或0。

  2. 您的最大池操作需要有不同于1的步幅来实际减少图像的宽度和高度。所以设置strides=[1, 5, 5, 1]应该可以工作。

  3. 修复之后,您的最大池操作实际上并没有将宽度/高度从1750降低到10,而是仅为14(因为1750/5/5/5 == 14。因此您可能想要增加权重矩阵

  4. 你的图像是否可能从3个通道开始?你在这里假设灰度,所以你应该重塑image_matrix有3个通道,或者将图像转换为greyscale。

应用这些修补程序后,博th网络输出和标签应该有形状[batch_size, 4],你应该能够计算出差异。

编辑:我在讨论下面的聊天中的代码后调整了这一点。

+0

您可以详细说明第一点吗?我应该如何实现将数组转换为矩阵?我也查看了CIFAR-10 Tensorflow代码,它们的实现使用了我正在使用的一维数组。 –

+1

他们使用1D数组,因为[他们正在使用](https://github.com/tensorflow/tensorflow/blob/r0.9/tensorflow/models/image/cifar10/cifar10.py#L266)函数'tf .softmax_cross_entropy_with_logits()'来计算损失函数,这里记录: https://github.com/tensorflow/tensorflow/blob/r0.9/tensorflow/models/image/cifar10/cifar10.py#L266 如果你正在使用该功能,那么你不需要执行一个热门的编码,因为它已经处理了它。 – ibab

+0

我不认为在tensorflow中有一个MSE可以为你做同样的事情,所以你可能不得不使用'tf.one_hot'函数来自己执行一个热门的编码:https://www.tensorflow.org /versions/master/api_docs/python/array_ops.html#one_hot – ibab

0

One_hot标签将维度添加到其输入。作为例子,如果labels张量如果大小[批量,1],使用tf.one_hot(batch_labels, depth=2, axis=-1)返回[批次,1,2]维度张量。对于尺寸的情况下[batch_size时,1] labels张以下脚本可以解决摆脱额外的维度:

tf.one_hot(tf.squeeze(batch_labels,[1]), depth=2, axis=-1)

基本上labels张量必须是大小[batch_size时,]的。 tf.squeeze()函数消除特定的尺寸。 [1]参数,提示函数消除第二维,即1

相关问题