考虑具有以下结构的其最后的两层的完全连接的神经网络:Keras激活函数之前检索节点的值
[Dense]
units = 612
activation = softplus
[Dense]
units = 1
activation = sigmoid
净的输出值是1,但我想知道sigmoidal函数的输入x是什么(必须是一些很高的数字,因为sigm(x)在这里是1)。
Folllowing indraforyou's答案我设法获取Keras层的输出和重量:
outputs = [layer.output for layer in model.layers[-2:]]
functors = [K.function([model.input]+[K.learning_phase()], [out]) for out in outputs]
test_input = np.array(...)
layer_outs = [func([test_input, 0.]) for func in functors]
print layer_outs[-1][0] # -> array([[ 1.]])
dense_0_out = layer_outs[-2][0] # shape (612, 1)
dense_1_weights = model.layers[-1].weights[0].get_value() # shape (1, 612)
dense_1_bias = model.layers[-1].weights[1].get_value()
x = np.dot(dense_0_out, dense_1_weights) + dense_1_bias
print x # -> -11.7
怎么能X是负数?在这种情况下,最后一层的输出应该是一个比1.0更接近0.0的数字。 dense_0_out
或dense_1_weights
错误的输出或权重?
它不应该是'x = np.dot(dense_0_out,dense_1_weights)+ dense_1_bias'吗? –
@MarcinMożejko你是对的,我纠正了它。由于偏见被训练到0.0,所以没有任何改变。 – johk95
但是这个层的输出被送到softmax--你获得的值被压缩到[0,1]间隔。 –