我想要实现自动编码器(将在精确的堆叠卷积自动编码器)tensorflow复制变量而不是可训练到pretrain下一个层
这里我想pretrain每层的第一和然后微调
所以我创建了各层的权重变量
ex。 W_1 = tf.Variable(initial_value,名称,可训练=真等),用于第一层
和我预训练的第一层的W_1
然后我想pretrain重量第二层的(W_2)
这里我应该使用W_1来计算第二层的输入。
但是W_1是可训练的,所以如果我直接使用W_1,张量流可能会训练W_1在一起。
所以我应该创建W_1_out是守W_1的价值,但不训练的
说实话,我试图修改本网站
https://github.com/cmgreen210/TensorFlowDeepAutoencoder/blob/master/code/ae/autoencoder.py
在线路102就通过下面的代码创建变量的代码
self[name_w + "_fixed"] = tf.Variable(tf.identity(self[name_w]),
name=name_w + "_fixed",
trainable=False)
但是它会调用错误导致它使用未初始化值
我应该怎么做才能复制变量,但不能将它训练到前面的下一层?
请参阅[输入链接说明](https://stackoverflow.com/questions/37326002/tensorflow-get-variable-change-shared-variable-trainable-to-false) – educob