0
似乎用于在示例TensorFlow代码中为sequence-to-sequence代码计算seq2seq_model.py代码中用于计算注意掩码的attention()方法不会在调用期间解码。在解码过程中用TensorFlow的seq2seq示例代码提取注意矩阵
有谁知道如何解决这个问题?在这里提出了一个类似的问题:Visualizing attention activation in Tensorflow,但我不清楚如何在解码期间获得矩阵。
谢谢!