2017-05-30 80 views
0

我读了这个tutorial关于如何用TensorFlow制作一个快速的神经网络,它的效果很好。如何将变量添加到tf.trainable_variables?

但是,我想了解更多关于它如何工作的。

在代码中,我们定义与神经网络:

def neural_network_model(data): 
    hidden_1_layer = {'weights':tf.Variable(tf.random_normal([n_nodes_hl0, n_nodes_hl1])), 
         'biases':tf.Variable(tf.random_normal([n_nodes_hl1]))} 

    hidden_2_layer = {'weights':tf.Variable(tf.random_normal([n_nodes_hl1, n_nodes_hl2])), 
         'biases':tf.Variable(tf.random_normal([n_nodes_hl2]))} 

    hidden_3_layer = {'weights':tf.Variable(tf.random_normal([n_nodes_hl2, n_nodes_hl3])), 
         'biases':tf.Variable(tf.random_normal([n_nodes_hl3]))} 

    output_layer = {'weights':tf.Variable(tf.random_normal([n_nodes_hl3, n_classes])), 
        'biases':tf.Variable(tf.random_normal([n_classes]))} 

    l1 = tf.add(tf.matmul(data,hidden_1_layer['weights']), hidden_1_layer['biases']) 
    l1 = tf.nn.relu(l1) 

    l2 = tf.add(tf.matmul(l1,hidden_2_layer['weights']), hidden_2_layer['biases']) 
    l2 = tf.nn.relu(l2) 

    l3 = tf.add(tf.matmul(l2,hidden_3_layer['weights']), hidden_3_layer['biases']) 
    l3 = tf.nn.relu(l3) 

    output = tf.matmul(l3,output_layer['weights']) + output_layer['biases'] 

    return output 

并最终运行

cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=prediction, labels=y)) 
optimizer = tf.train.AdamOptimizer().minimize(cost) 

我想弄清楚AdamOptimizer如何知道什么matricies改变,因为他们没有被传递到最小化函数。

所以,我抬头一看AdamOptimizer,并发现minimize有一个可选的参数:

var_list: Optional list or tuple of Variable objects to update to minimize loss. Defaults to the list of variables collected in the graph under the key GraphKeys.TRAINABLE_VARIABLES. 

于是我抬头GraphKeys.TRAINABLE_VARIABLES发现:

When passed trainable=True, the Variable() constructor automatically adds new variables to the graph collection GraphKeys.TRAINABLE_VARIABLES. This convenience function returns the contents of that collection. 

所以我当时做了一个搜索在我的代码中,术语trainable没有任何发现。

因此如何在世界上没有的AdamOptimizer知道它应该改变,以优化?

回答

1

trainable参数被传递给构造函数Variable,隐含地默认为true。在您的代码中将其设置为false以避免对某些变量进行培训。